Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 23 reacties
Bron: BBC News, submitter: Falcon

Onderzoekers van Microsoft Research zoeken naar nieuwe technieken om webcams en instant messaging verder te combineren. Het project, dat i2i is genoemd, bestaat erin dat twee webcamera's bewegingen van de computergebruiker volgen. Deze beelden worden vervolgens samengevoegd door middel van een speciaal algoritme waardoor een 'cyclopisch' beeld ontstaat. Dit geeft de gebruikers van de webcam het idee dat ze daadwerkelijk de ander in de ogen kijken. Recent onderzoek heeft uitgewezen dat meer dan 18,5 miljoen mensen een webcam gebruiken in hun instant-messagingprogamma. Het zijn niet alleen tieners die dit doen, ook bedrijven maken steeds meer gebruik van deze feature.

Een probleem dat veel genoemd werd, is het feit dat men vaak naar zomaar iemand aan het kijken was in plaats van naar de persoon met wie ze aan het chatten zijn. Dit komt vooral doordat de persoon niet recht in de ogen wordt gekeken. Om dit probleem op te lossen zijn de onderzoekers gaan uitzoeken hoe het visuele menselijke brein werkt: hoe kleuren worden gekozen, hoe afstanden en vormen worden ingeschat en hoe er vervolgens 'modellen' van gemaakt worden door de ogen. Alle opgedane kennis is vervolgens verwerkt in een algoritme dat nieuwe 3d-beelden genereert op basis van de input van twee camera's. Het systeem is verder ook in staat om realistische achtergronden toe te voegen aan het nieuwe beeld.

i2i camera's op laptopOm ook tieners te interesseren voor de technologie is de mogelijkheid opgenomen om 3d-smarticons toe te voegen aan de beelden. Volgens Dr. Criminisi, hoofdonderzoeker van Microsofts Machine Learning and Perception Group, bestaat de primaire markt voor zijn vinding echter uit bedrijven die gebruikmaken van videoconferencing. De technologie bevindt zich echter nog in de kinderschoenen en er zijn dan ook nog verschillende problemen die opgelost moeten worden. Een daarvan is het feit dat er veel rekenkracht benodigd is om goede beelden te verkrijgen.

Moderatie-faq Wijzig weergave

Reacties (23)

ik weet niet hoe lang microsoft hier mee bezig is, maar ik weet wel dat ze niet de enige zijn.

De TU-Delft is hier samen met o.a. Sony al een paar jaar mee bezig. Ik heb vorig jaar al een werkende demo van het systeem (virtue) gezien en ik kan je zeggen dat het er erg indruk wekkend uit zag.

meer info is te vinden op http://www.virtue.eu.com/PublicArea2001/papers/Xu_virtue_cvf.pdf
Ik ben Drs. Economie, ik heb een IQ van 158, ik lees de Koran achterstevoren in 6 talen binnen de 2 dagen, maar van bovenstaand stuk snap ik geen HOL!!!!

Kan iemand nou even in twee zinnen uitleggen wat de techniek precies doet?
de tekst hierboven gaat inderdaad nogal kort door de bocht met de bron informatie.

in de bron staat dat met de stereo-informatie (van de 2 webcams) 3D info wordt gehaald, waarmee 3D geometrie in realtime kan worden berekend.
de persoon die 'gefilmd' wordt is dus een 3D object dat getextureerd is met het "oppervlakte beeld" van die persoon. net als die 3D mannetjes in Unreal/Quake met het opgenomen beeld als skins, zeg maar.

omdat het gehele beeld dus gegenereerd wordt, kunnen ze het poppetje zo draaien dat het naar de gebruiker ("ontvanger" van het beeld) kijkt.
ze kunnen dan ook een willekeurige achtergrond in het beeld plaatsen.
The stereo algorithm created by the researchers, which lies behind the technology, makes it possible to reconstruct 3D geometry in real-time and accurately on a standard computer.
It is the same kind of technology used to recreate 3D images of the surface of Mars which were sent back from the US space agency rovers.
Dan zou je haast je web cam moeten integreren in je monitor. De hele monitor zou dan (ook) een camera moeten zijn. Vervolgens moet dan de software bepalen op welk deel van de monitor jij kijkt. Als je dan met verschillende mensen achter de monitor/cam zit kan de software bepalen naar wie de persoon aan de andere kant kijkt. Dat zou wel leuk zijn. Nu is nog steeds het probleem dat de hoek van de webcam niet 100% ideaal is. Als je in de cam kijkt zie je niet (goed) wat er op het schm te zien is, en als je op het scherm kijkt lijkt het dat je niet naar de andere persoon zit te kijken.
Om te laten zien op welk deel van je monitor je kijkt zijn we al heel wat technologiejaren voorbij denk ik. Hoe kan een monitor nou merken waar je op het beeld kijkt?
Maybe met infrarood ofzo :P Bepaalde Canon camera's baseren hun focus ook op het punt waar jij naar kijkt :Y)
Die oogsturing op die canon werkt met reflectie van een infrarode lichtbron op een sensor. Je oog moet dus goed voor de zoeker gehouden worden.

Met deze techniek vraag ik me af of het wel gaat werken. Kan dr verder eigenlijk nog niets zinnigs over zeggen.
wellicht zou je een soort van spiegelreflex kunnen gebruiken. ? alleen dan wordt het inkomend licht niet naar twee plekken gestuurd, maar inkomend licht wordst dan naar een ccd (iod) gestuurd, en vanaf de andere richting komt dan het beeld.
Volgens mij is dat laatste nou net waar deze nieuws-post over gaat: dat je niet meer in de camera hoeft te kijken om je gesprekspartner het idee te geven dat je hem of haar recht aankijkt. Je kan dan gewoon naar je scherm blijven kijken en met behulp van de beelden twee camera's wordt berekend hoe je eruit ziet als je recht in een camera zou kijken. De camera zit dus virtueel in je monitor, precies op de plaats van het beeld van de persoon waarmee je chat..
Niet echt, er staan gewoon twee webcams op die de ogen van de mens simuleren. Dus de twee beelden worden samengevoegd zodat ze meer door de ogen van de mens gegenereerd lijken.

Zoals je kan zien op het prentje zouden de webcams bovenop het scherm zitten zodat als je naar je scherm kijkt je ogen altijd +/- naar de camera zijn gericht.

Hoe het zit met het 3D beeld snap ik niet goed maar ja...
Kijk, dit vind ik dan wel weer leuk.
Dit heeft toch de toekomst, en dan krijg je natuurlijk ook geluid erbij.

Op Cebit liet Cisco hele mooie VoiceOverIp apparatuur zien met soort van 'webcam' ingebouwd.
Mooi spul!
Op Cebit liet Cisco hele mooie VoiceOverIp apparatuur zien met soort van 'webcam' ingebouwd
Dus? Dan heb je nog steeds dat f iemand van je wegkijkt, f je kan niet terugkijken.... en dat proberen ze met dit softwaremodel op te lossen.

Maar jij kijkt dan nog niet 'echt' terug in die ander zijn ogen.

Betere oplossing lijkt mij die van Toshiba:
Scherm wat zelf opneemt

Hier is het het scherm zelf wat dient als camera, dus dan kijk je cht terug. Maar ik denk wel dat de technologie met behulp van 2 webcams goedkoper gaat worden.
Om ook tieners te interesseren voor de technologie is de mogelijkheid opgenomen om 3d-smarticons toe te voegen aan de beelden.
Als je dan een rotdag hebt en je gaat in gesprek met je vriendin dan knal je er een lachende smilie eroverheen. Of trekt je gezicht dan op haar scherm (ivm dat smart) een grote lach?
nee wat ik begrepen heb is het alleen maar mogelijk om emoticons toe te voegen aan het beeld; dat je bijvoorbeeld een 3d hartje naast je eigen hoofd kunt laten ronddraaien; kortom geen beeldmanipulatie maar enkel wat van die CBS truukjes....
@MMC

Beetje Off Topic....
Ik zag een tijd gelegen op National Geographic Channel een programma met Allan Alda waarin een meisje was die vanaf haar nek helemaal verlamd was.
Ze kon ook niet praten omdat haar ze haar stembanden ook niet onder controle had.

In dat instituut waren ze bezig een scherm te ontwikkelen die dus 'ziet' waar jij naar kijkt.
En dat werkte al vrij goed.
Zo was dat meisje in staat om zinnen te schrijven door simpel naar de gewenste letter te kijken en haar blik daar gedurend 1 a 2 seconden op te houden.
Ugh, ik wou dat ikzelf wat meer geheugencapaciteit had, want ik kan me niet meer herinneren waar ik dit verhaal al jaren terug had gelezen.

Het was bij een videofabrikant volgens mijn Matrox of nVidia, waarbij er een 3D vervanging van het hoofd werdt gebruikt.

Wat zou ik ook zonder Google doen, link is hier:
http://www.matrox.com/mga/archive_review/oct2001/zdnet_millg550.cfm

Bablefish vertaling naar Nederlands: http://babelfish.......

Dus deze Microsoft versie neemt dat een stapje verder door het in real-time te doen met 2 webcams.
Geanalyseert hoe een mens kijkt en beelden waarneemt?? :?
Is dit niet standaard matrix berekeningen?? :?
Zoals men gebruikt bij het analyseren van de bewegingen van een patient als deze bestraalt wordt? (in ontwikkeling)

duz ontwikkeling? gewoon gebruik maken van de techniek duz.
MS met veel (gejatte) technologie

Maar ik vind dit echt wel een beter idee, ik hoop dat dit snel op de markt is. :Y)
uuh mijn logitech webcam heeft dat al hoor...
Ik denk (en denk dat ik niet alleen ben) dat jij OF de nieuwspost niet helemaals snapt OF dat ik (we) graag wat meer info over jouw webcam willen ;)
Je hebt zeker een face-tracker in je Logitech Sphere webcam, maar wat er hier gebeurt is net eventjes iets anders, want het is dus geen hardwarematige aangelegenheid, maar softwarematig!
ahh jah , dat bedoel ik iig, ;) niet dak et gebruik vin et alleen maar te gaar :P
Dit geeft toch wel een nieuwe dimensie aan iemand te "moonen"
:+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True