Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 13 reacties

Microsoft heeft een bŤtaversie van Robotics Developer Studio 4 uitgebracht. Met de software kunnen hobbyisten en bedrijven programma's schrijven om robots aan te sturen die al dan niet met een Kinect-camera zijn uitgerust.

In versie 4 van Microsofts Robotics Developer Studio, in feite een upgrade van de 2008 R3-versie, is ondersteuning voor Kinect-sensoren toegevoegd. De gebruiker moet aanvullend nog wel de normale Kinect-sdk installeren. Een restrictie is echter nog dat de bèta-Kinect-sdk niet voor commerciële projecten mag worden gebruikt. Microsoft wil in de toekomst echter ook commerciële licenties gaan uitgeven.

Microsoft heeft in zijn roboticapakket ook een emulator opgenomen waarmee het gebruik van de Kinect-sensor gesimuleerd kan worden. In de emulator, die voorzien is van een physics engine, kan ook de feedback van de diverse sensoren op een robot getest worden.

Met de gratis RDS4-kit lijkt Microsoft te proberen hobbyisten en bedrijven ertoe over te halen om geen opensource-software te gebruiken voor het aansturen van robots. Een van de bedrijven die gebruikmaken van de sdk is het Eddie Robot Platform. Deze robot komt binnenkort op de markt.

Microsofts Robotics Developer Studio - emulator Microsofts Robotics Developer Studio - robot met Kinect-sensor
Moderatie-faq Wijzig weergave

Reacties (13)

Wat mij vooral interessant zou lijken als een robot door middel van beeld en /of geluid dingen kan leren en deze dan later in vergelijkbare situaties kan toepassen.

Dit kan op zich al, het is niet zo lastig om met een 3d camera de robot de exact zelfde handeling te laten doen. Wat ideaal zou zijn is als een robot een geleerde handeling kan toepassen maar dan gaan de weg zelf aanpassingen op kan maken.

Stel voor je laat een robot zien hoe hij een plastic kopje moet oppakken en daar vanuit een plastic fles water in kan gieten.

Als je dan het plastic kopje vervangt door een glas is de kans groot dat als de robot deze oppakt hij te veel kracht zet en het glas barst of breekt. Dit zou een robot moeten herkennen en de volgende keer als de robot ziet dat hij een glas moet oppakken gebruikt hij minder kracht tot hij een balans tussen kracht en grip heeft gevonden die het glas niet kapot maakt.

Het zelfde idee zou je ook op de plastic fles kunnen toepassen door deze te vervangen door een pak melk. De volgende keer dat de robot iets oppakt moet het begrijpen wat het is en waarvan het gemaakt is en daar de kracht en grip/houding op aanpassen.

Hoewel een zelf lerend systeem gevaarlijk kan zijn (denk skynet) is dit een van de weinige manieren om op sommige vlakken vooruitgang te maken. Daarom ben ik tegen een robot dia via internet met andere robots praat en leert omdat je dan de controle bijna meteen kwijt bent. Maar een robot in een gesloten omgeving zou bijvoorbeeld kunnen leren programmeren.

De huidige hardware is 10+ jaar voorruit op de software die er op draait en een zelf lerend programmeer proces zou dit kunnen oplossen.

Weet iemand of er dit soort projecten in omloop zijn? Op google vind je van alles over het onderwerp en zat projecten die vergelijkbare dingen doen maar waar de focus ligt op leren via het hive mind idee (skynet) of kan alleen leren om dingen exact na te doen.
Alleen dan de volgende situatie: geweer +voordoen = robotmoordenaar
Voor er een AI is die dit zo snel onder de knie krijgt met aanpassingen op de situaties die het tegen kan komen.. Zitten we op het punt dat Cleverbot al LANG met zichzelf een conversatie kan houden die ergens op slaat ;)

Volgens mij vraagt Tenshi om herhalende acties die het via de sensoren kan inprenten zonder dat je ervoor code hoeft te weven vooraf.. Soort van Trial and Error systeem.

Dit zou inderdaad mooi zijn :) kun je straks je eigen stofzuiger ontwerpen als hobbyist.
"Stel je voor wij, de mens, komen aan bij het punt dat wij een AI kunnen maken en deze in een lichaam van vlees en bloed kunnen zetten. Als wij tegen die tijd de mogelijkheid hebben om op een fatsoenlijke manier door de ruimte te reizen en op een toepasselijke planeet deze AI de vrijheid geven om zelf te ontwikkelen, wat krijg je dan?"

BSG?
Trail and error is zeer belangrijk in het leer proces zowel voor de mens als voor een AI.

Daarbij krijg(t/en) de ouder(s) van deze levensvorm veel verantwoordelijk die niet veel anders is dan het opvoeden van een mensenkind. Als jij als ouder je 5 jarige zoontje een luchtbuks geeft en hem hier mee leert schieten is de kans aanwezig dat hij deze kennis gebruikt om iemand te vermoorden hoger dan bij een kind die nooit heeft leren schieten. Dit is niet anders voor een AI.

Dit is ook de reden waarom ik sterk tegen het hive mind idee ben. Een hive mind kan werken in een kleine, gesloten omgeving als een leer proces. Twee fysieke robots met 1 gedeelde bewustzijn kan zeer leerzaam zijn maar op het moment dat de AI's in contact komen met factoren waar je geen controle over hebt escaleert dit snel naar een punt waar je de controle kwijt bent.

Zeker als je een Hive mind via het internet laat lopen en de kennis die daar op staat laat inzien ben je eigenlijk al meteen de controle kwijt en dit is waar de doom scenario's vandaan komen.

Daarnaast is het idee van hive mind eigenlijk het tegenovergestelde van wat ik geloof een AI moet kunnen. Leren van bestaande kennis kan iedereen waarbij een AI het voordeel (en nadeel) heeft dat hij een bepaalde handeling perfect kan kopiŽren.

Dit hive mind idee is heel erg vergelijkbaar met ons schoolsysteem alleen slaan onze hersens maar een zeer klein deel van alle informatie op en de informatie die het wel opslaat lijkt ook vrij snel te verwateren. Dit is de reden waarom het merendeel van de mensen op deze planeet niet voor zichzelf kunnen denken.

Ik bedoel, wat doe je als er een vraag is maar je geen antwoord hebt? Het meest voorkomende antwoord is nu: Just f*cking google it. En wanneer je dat doet en door die weg een oplossing vind die wel werkt maar die jij niet begrijpt kan je deze wel gebruiken maar je zal hier niet snel op verder kunnen bouwen. Niet totdat je een stap terug neemt en uitzoekt hoe dit werkt.

Dit is de hoofdreden waarom ons huidige schoolsysteem zo slecht is. Je krijgt informatie voorgeschoteld die je maar uit je hoofd moet leren iets wat zeer saai en vermoeiend is, en je vraagt je af waarom de meeste kinderen druk zijn in de klas? Verveling. Je geeft ze voorgekauwde meuk terwijl zij vragen om biefstuk. En om dit nog een factor erger te maken wordt het maken van fouten afgestraft.

Wij moeten heel erg goed gaan nadenken hoe wij onze kinderen (mens of AI) gaan opvoeden. En ik denk dat AI een goed nieuw begin is om een leer systeem te creŽren waar de nadruk ligt op zelf nadenken in plaats van zo veel mogelijk informatie vergaren. Als je zelf na kan denken komt die informatie vanzelf.

Dit brengt mij tot een aantal vragen:

1) Taal wordt door mensen en dieren gebruikt om informatie te communiceren. Deze taal wordt bij mensen vanaf geboorte aangeleerd en hangt af van het land waar je woont en welke taal je ouders spreken. Welke taal spreekt een AI? Als wij een AI Engels leren gaat de AI hier genoeg aan hebben om zijn gedachte uit te spreken? Talen zijn door de eeuwen heen ontstaan maar iedereen wordt geboren met een bepaalde basis taal als je twee net geboren babies bij elkaar legt wordt er heel veel gecommuniceerd door te kijken, horen, voelen, bewegen en het maken van geluid. Hoe gaan we een "lege" basis maken voor een AI die hier tot in staat is en wat zou er gebeuren als je twee van deze baby AI's bij elkaar laat opgroeien zonder tussenkomst van mensen? Welke taal komt daar uit voort en hoe vergelijkt deze met de taal van de mens? Of wat zou er gebeuren als je een baby AI laat opgroeien met een mensen baby met menselijke ouders, hoe menselijk wordt deze AI?

2) Kan een AI een nageslacht krijgen? KopiŽren van alle data en deze op een zelfde machine laten draaien is natuurlijk makkelijk maar dan wordt alle informatie die tot dat moment is vergaard foutloos over gezet. Als er dan een "fout" in deze basis zit zal het "kind" tegen de zelfde limitaties aanlopen als die van de ouders. Bij de mens is dit het recht van de sterkste, mensen die het goed doen in onze maatschappij hebben een grotere kans om zich voort te planten. Hoe kan je van twee verschillende AI's met verschillende ervaringen een nakomeling maken die deze kennis meeneemt maar hier wel zelf over na kan denken en hier beslissingen over kan nemen?

3) Wat is leven en wat is intelligentie? Welke rechten heeft een AI in onze maatschappij?

Najah, genoeg monoloog gevoerd hier in de meuktracker :P

Ter afsluiting nog iets om over na te denken:

Wij zelf, de mens, zijn een AI gecreŽerd door onze voorgangers. Net zoals wij dit nu doen met robots en computer programma's. Als je een AI op een goede manier laat leren kan deze zelf in kennis groeien. Om het probleem die ik in punt 2 beschreef to overkomen hebben onze voorgangers gekozen voor een biologische schil in plaats van een mechanische.

Wij, als beginnende AI zijn dan verspreid geplaatst over deze wereld waardoor er verschillende vertakkingen qua ontwikkeling zijn ontstaan. Zelf denk ik dat wij, zoals wij dit nu met onze AI doen, heel lang (en misschien nu nog) worden gestuurd door onze makers.

Stel je voor wij, de mens, komen aan bij het punt dat wij een AI kunnen maken en deze in een lichaam van vlees en bloed kunnen zetten. Als wij tegen die tijd de mogelijkheid hebben om op een fatsoenlijke manier door de ruimte te reizen en op een toepasselijke planeet deze AI de vrijheid geven om zelf te ontwikkelen, wat krijg je dan?
Wat betreft het nadoen en leren naar objectief is reinforcement learning wel voldoende, bijv SARSA - http://en.wikipedia.org/wiki/SARSA . Je hebt ook gigantische databases waar informatie in zit, wat allemaal getagged moet worden. zo heeft MIT een giga database met foto's waarin je dingen moet aanwijzen en het vertelt wat wat is, kan je ook online aan meehelpen. Drukkrachten waar je het over hebt hoef je niet bang voor de zijn, in delft hebben ze top grijpers die de kracht met een differentiaal over drie kootjes verdelen. Wat het grootste probleem is bij het plastic wat je noemt is dat het doorzichtig is, en een robot vooralsnog dat alleen gaat weten als hij ook nog een ultrasone afstandsopnemer bij zich heeft.
Vind dit zinnetje er wel raar bijgeplaatst?
Met de gratis RDS4-kit lijkt Microsoft te proberen hobbyisten en bedrijven ertoe over te halen om geen opensource-software te gebruiken voor het aansturen van robots.
Microsoft biedt enkel nieuwe drivers aan waarmee R4 kan werken met Kinect. Lijkt me een normale doorontwikkeling van hun technologieŽn? Om daarmee te suggereren dat alle opensource projecten maar ineens moeten ophoepelen vind ik nogal bizar...
Opensource heeft al een aardige vinger in de pap. Als je naar 3d-sensors -> RGB-D gaat zie je dat er gratis al een OpenNI implementatie is voor Kinect.
Natuurlijk niet, het pakket is (vooralsnog voor niet-commerciele doeleinden) gratis.

Bericht wel gelezen?
Dit is alleen de software, ze moedigen bedrijven aan om de nodige hardware te maken en dat _kan_ dan ook een kinect bevatten mogelijk. Maja, gister al uitgebreid over gelezen, op zich wel leuke software en als het goed is zijn er al een paar bedrijven die hebben beloofd om robots hiervoor te bouwen. Al met al wel interresant dat zich weer eens een commercieel bedrijf hierin probeert te komen, want zover ik meestal serieuze hobbyisten tegen kom op dit gebied gaan ze toch praktisch altijd voor open source software. Maar dat komt ook waarschijnlijk wel omdat ze dat dan meestal via via via de universiteit doen, dus mss niet de meest gemiddelde testgroep.
Kinect is gewoon een USB webcam met infrarood "gestructureerd licht" projectie.

Maar idd. Microsoft gaat echt geen gratis hardware uitdelen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True