Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

RoboEarth: een internet voor robots

Door , 69 reacties

19-01-2014 • 08:00

69 Linkedin Google+

Na vier jaar onderzoek demonstreerde de TU Eindhoven afgelopen week RoboEarth. Dit is een internet voor robots, dat dienst moet doen als leerplatform. Door verzamelde gegevens op te slaan in de cloud kunnen allerlei verschillende robots van deze data gebruikmaken. Neem bijvoorbeeld een robot die voor het eerst een ruimte binnenkomt. Deze scant de omgeving met zijn Kinect-camera en uploadt de verzamelde data via een wifi-dongle naar de cloud. Een andere robot kan deze data vervolgens downloaden zodat hij bij binnenkomst van diezelfde ruimte direct weet hoe de omgeving eruit ziet en waar obstakels of objecten staan. Ook kunnen de robots samenwerken, door met z'n tweeën een ruimte te scannen en de verzamelde data samen te voegen waardoor een sneller en completer beeld ontstaat. Op deze manier kunnen robots dus constant bijleren en zijn ze niet beperkt tot de intelligentie die ze in eerste instantie 'meekrijgen'.

De meest voor de hand liggende toepassing voor RoboEarth is volgens het ontwikkelteam de zorgsector. Vanwege de toenemende vergrijzing verwachten zij dat hier de komende jaren veel handen nodig zijn, en dan kunnen slimme robots hier aan bijdragen. Voor de demonstratie had het team van RoboEarth dan ook twee ziekenhuiskamers nagebootst. De robots zouden hier patiënten helpen aan een drankje of chips. Robot 1 zou dat in kamer 1 doen, waarna robot 2 de verzamelde data van robot 1 zou ophalen uit de cloud en dezelfde handelingen sneller in kamer 1 kunnen uitvoeren. Helaas kwam hier uiteindelijk vrij weinig van terecht, onder andere door problemen met het wifi-netwerk.

De TU van Eindhoven werkte voor dit onderzoeksproject samen met vier andere Europese universiteiten en kreeg bovendien hulp van Philips. Daarnaast steunde de Europese Unie het project met een bedrag van 5,6 miljoen euro.

Reacties (69)

Wijzig sortering
Ik ben zojuist klaar met het werken in een Europees zorg project (robotica in de zorg) en zit nu in een nieuw project wat de basis moet leggen voor studenten in robotica in de zorg. Jullie onderschatten denk ik dat het toch wel heel erg moelijk is om een robot "menselijk" te maken. Jullie kraken het project af omdat jullie de subsidie zien en denken dat er een compleet inzetbare robot uit komt. Dat is in de praktijk helemaal niet zo.

De kosten aan hardware waren, in mijn project, rond de 1 miljoen euro. Daarnaast waren er meerdere internationale partners (Engeland, Duitsland, Nederland, ItaliŽ, Frankrijk). Deze mensen werken ook niet voor niks en dus zit je al heel snel op het hier boven genoemde bedrag.

Waar wij heel erg tegen aan liepen is dat de robots nog niet klaar zijn om zelfstandig te worden ingezet in de zorg. De robot in kwestie was een robot die zelf al 3 zeer krachtige i7 pc's aan boord had, maar daarnaast nog 2 zware pc's nodig had voor "wat randwerk". Ondanks al deze rekenkracht, software die door hele slimme mensen was gemaakt en ik en een tweede software engineer te plaatse faalde de robot soms in hele simpele dingen. Net zoals de mensen van TU/E kon de robot soms een drinkbeker niet op de tafel zetten omdat bijv. simpelweg de navigatie geen logische positie kon berekenen omdat de laser scanners gestoord werden of wat dan ook. Dat de robot oop simpele dingen kan falen is nou eenmaal zo.

Bovendien is het momenteel nog steeds zo dat zowat alle opstellingen in strijd zijn met de regel: "de robot moet zich aan de wereld aanpassen, en niet de wereld aan de robot". We zien dan ook bij TU/E, als ook in mijn project, dat dingen afgedekt worden met witte planken of tafels op de goede positie moeten staan want anders kan de robot er niet mee overweg.

Is het project nu mislukt? Naar mijn mening niet. Er zijn talloze ideeŽn opgedaan, nieuwe technologieŽn ontdekt en de volgende versie van de robot en software is al in de maak.

Persoonlijk vind ik het idee zeer goed en abitieus. Ik vraag me wel af hoe het in de praktijk gaat werken. De ene robot is de ander niet. Er zullen dus vastgestelde eisen aan het platform moeten zijn. Mijn robot heeft bijvoorbeeld 2 manipulators en die van Bob heeft er maar ťťntje. Kunnen ze nu diezelfde taak op dezelfde manier uitvoeren middels het cloud programma?

Persoonlijk moet ik wel vermelden dat het filmpje, denk ik, geen recht doet aan al het werk wat er in zit. Het lijkt nu een beetje "knullig" terwijl er denk ik hele mooie dingen zijn gemaakt ;)

[Reactie gewijzigd door foekie01 op 20 januari 2014 12:51]

als je ziet hoeveel brainpower hiermee gemoeid is (lijst ) en hoeveel publicaties hiermee verbonden zijn http://www.roboearth.org/publications

Het slecht gekozen 'www for robotics' eigenlijk een cloudstorage is bij Amazon (zie Heico Sandee's eigen sponsor pagina http://www.startupbootcamp.org/sponsors.html )

en het feit dat men hier 4 jaar mee bezig is geweest met 4 universiteiten, is de demonstratie gewoon slecht te noemen en waarschijnlijk geen goede representatie van de werkelijke research.
als netwerk en kinect 'probleempjes', naar eigen zeggen, zo simpel zijn, waarom worden ze dan niet opgelost?
Dus je hebt 5 miljoen subsidie en je gebruikt linksys wifi routertjes als kritische 'netwerkoplossing'?

komt allemaal erg amateuristisch over voor het geld wat ze te besteden hadden. (of is er nog 4miljoen over voor de volgende studenten die dit gaan perfectioneren?).

edit: toevoegen van deze 30min presentatie over RoboEarth. Stukken interessanter dan dit filmpje

[Reactie gewijzigd door kabal op 19 januari 2014 12:26]

Dit is een proof of concept geen prototype. Komt daar nog de lesstof, aanschaf van robots, publicaties, administratie, onderwijsbezuinigingcompensatie etc. etc. en nog huur voor faciliteit tue erbij en dan gaat je 5 miljoen echt zo op. De keuze voor wifi lijkt me logisch: veel robots hebben dat. Dit idee kost ook veel tijd om te coden.
Ik snap niet hoe jij denkt voor 1 mio het nut en noodzaak van een dergelijk idee te kunnen bewijzen aan een groot publiek.
Toch blijft 5 miljoen erg veel geld. Hou er rekening mee dat er in dit geval geen salarissen van betaald hoefde te worden. Ik hoop inderdaad dat er nog geld van over is en dat dit niet het eind resultaat is. Anders is het na mijn inziens toch wat matig. Dat is sowieso vaak het probleem met subsidies. Er is geen gevolg als het geld niet goed gebuikt is. In een commerciele omgeving was je met dit resultaat na zoveel geld niet weg gekomen.
Wanneer je subsidie aanvraagt declareer je gewoon je uren bij de rechtspersoon die deze subsidie pot beheerd. Dus je eigen eenmanszaak/vof/bv of de instantie voor wie je de subsidie aanvraagt dan wel de rechtspersoon die jou in dienst neemt om subsidiabele werkzaamheden te verrichten. Van subsidie betaal je ook een uurtarief, dus salaris. Het kan ook zijn dat je subsidie krijg in de vorm van korting op de belastingen. Bij innovatieve (vernieuwende) software ontwikkeling is dat onder andere het geval meen ik, dit heet WBSO korting.
Ik snap echt niet hoe je kan spreken over een matig resultaat. Mijns inziens leef je dan in een fantasiewereld..
Het is namelijk simpelweg nog niet mogelijk om robots die complexe taken uitvoeren van elkaar te laten leren zoals wij dat doen met taal, er zijn hier vrijwel geen precedenten voor. Het is vooralsnog alleen terug te vinden in films, zoals Star Wars waar R2D2 praat met C3PO en dus kennis uitwisselt. Om deze toekomstvisie in een of andere vorm realiteit te laten worden, worden dus gesubsidieerde onderzoeken opgezet om dit onafhankelijk en buiten militaire geheimhouding te kunnen laten plaatsvinden. Meestal bekijk je ook naar ratio of een bepaald onderzoek duur is. 5,6 miljoen is niks op de miljarden die jaarlijks aan onderzoek wordt uitgegeven.

Dat dit gebeurd is een groot goed en juist commerciŽle bedrijven en dus op den duur ook consumenten, profiteren van deze onderzoeken om nieuwe producten te ontwikkelen en te gebruiken. In plaats van het af te zeiken, kun je beter bedenken wat de volgende stap zou kunnen zijn. Dat is hoe de wetenschap werkt. Als jij die volgende stap bedacht hebt, dan ben je dolbij met deze 5,6 miljoen. Well spend! Het zou je immers veel gedoe schelen
Waar haal je vandaan dat hier geen salarissen van betaald hoefden te worden? Als er gťťn salarissen uit betaald zijn is het mij inderdaad een enorm raadsel waar je 5.6 miljoen aan opmaakt, maar dat lijkt me erg onwaarschijnlijk.
Die worden al betaald vanuit de universiteit gewoon. Sterker nog die robot hadden ze ook al. Dus waar het aan opgegaan is?
En je denkt dat de universiteit geen (groot) deel van deze subsidie opgeslokt heeft? Ik denk het wel... Veel promovendi bij universiteiten worden gefinancierd door externe partijen, zoals subsidies of investeerders.
De financieringsmodellen voor universiteiten zijn flink veranderd. De eerste geldstroom (financiering rechtstreeks door het ministerie van OCW) is flink verminderd, waardoor universiteiten externe financiering (tweede derde geldstroom) moeten binnenhalen om voldoende projecten te kunnen draaien. Deze financiering is dan bedoeld voor salarissen voor wetenschappelijk personeel, voor de gebruikte midellen en voor de overhead (kantoorruimte, secretariaat, ondersteunende diensten e.d.)

[Reactie gewijzigd door Coffeemonster op 20 januari 2014 18:43]

Ik snap niet dat jij denkt dat je hier echt 5,6 miljoen voor nodig denkt te hebben? Omdat dit een redelijk publiek project is, zou ik wel eens de kostenposten willen inzien.

Je argumenten voor "lesstof, aanschaf van robots, publicaties, administratie, onderwijsbezuinigingcompensatie en huur" lijkt me met enkele 10K echt wel afgedekt.
Bovendien is lesstof, publicatie, administratie en huur iets wat standaard door de universiteiten kunnen worden geleverd? waar zijn de meerkosten in deze?

Het echte (en meeste) werk zit hem in de software, de hardware is toch niet revolutionair te noemen ?

Bovendien zijn ze hier 4 jaar mee bezig geweest? promoveert hier iemand mee?
Jij hebt duidelijk geen kaas gegeten van kosten. 1 Robots kost al tientallen K's. Je vergeet ook 4 jaar aan salarissen van vele onderzoekers. Het bedrag wordt dan ook weer gesplits tussen alle universiteiten.

[Reactie gewijzigd door Relief2009 op 19 januari 2014 10:09]

Dit kan ik zelf ontkrachten, ik ben namelijk bezig met een minor robotica aan de TU delft en hier bouwen we met 5 groepen dus zelf een robot (ook draaiend op ROS, moet zeggen dat bij ons het navigeren en het pakken van objecten een stuk beter gaat, dus heb je ook dat nog...) en een robot kan je voor onder de 10K zeker wel bouwen. Wat ze daar waarschijnlijk doen is het allemaal op een veel te dure laptop draaien die veel meer functionaliteiten heeft dan nodig en dus veel duurder is.

Wij draaien alles (inclusief kinect en actuatie) op een Odroid XU waar we ubuntu server op hebben draaien, zit alles op, usb, gpio, dedicated graka, nieuwe exynos, alles. En dit alles zetten we in een kwartaal in elkaar na een kwartaal desingen en research.

Het probleem bij hun is vooral opzet, door taken te verdelen heb je minder failure points maar je krijgt een gefragmenteerd systeem (wat dus betekent dat je failovers moet hebben en dat je zowieso een aantal taken dubbel moet uitvoeren om het netwerk niet helemaal vol te pompen met onzinnige data).
Je zegt dat je dit zelf kunt ontkrachten, maar vervolgens kom je met een situatie van jezelf die helemaal niet vergelijkbaar is. Je bent bezig met een Minor Robotica terwijl die allemaal promovendi en hoogleraren zijn, dat is wel andere koek. Daarnaast heeft die project naast deze gefaalde demo al vele malen bewezen dat het super goed werkt. De hardware die ze gebruiken is ook nog niet eens overbodige luxe. Daarnaast is RoboEarth waarschijnlijk ook op een grotere schaal gebouwd dan jouw robot projectje.

Als je je eens zou verdiepen in RoboEarth zelf, zou je erachter komen dat dit niet zomaar weggegooid geld is, en dat het project veel meer inhoudt dan deze gefaalde demo.
Als je je eens zou verdiepen in RoboEarth zelf
Ik heb "pas" 4 maanden onderzoek in RoboEarth zitten, heb zelfs een poging gedaan om het te gebruiken bij ons eigen ontwerp! Dit werkte helaas niet omdat om het netjes te integreren je een enorm netwerk moet hebben.

Bij ons werken er ook allemaal hoogleraren aan mee, de vakgroep bestaat uit een man of 25. Dus ik denk dat de situatie zeker wel overeenkomt.

En de hardware die ze erin hebben zitten is zekerste weten wel overbodige luxe, heb net gebeld met een vriend van me op de TU-e en die meldt dat het allemaal (inclusief navigation stack, dat is echt een no-go) op een systeem draait. Deze ontwerpfout is pas te laat gevonden en nu hebben ze dus te dure hardware nodig om alsnog soepel te draaien.

Ik hoop dat je kan lezen dat ik er wel enigszins wat vanaf weet, en zo'n denigrerende toon is ook niet bepaald gewenst.
Er was niet bepaald een denigrerende toon bedoeld, maar je kunt het natuurlijk op allerlei manieren interpreteren.

Dit is gewoon een stuk beter beargumenteerd dan je eerste stuk, dus dan kan ik er minder tegenin gaan.

Ik heb zelf ook samengewerkt met de lui van RoboEarth en dan daar kwam toch meer naar voren dat het systeem wel wat beter in elkaar stak dan dat jij nu voorschotelt, maar dat zal wel de andere zijde van de munt zijn denk ik zo.
Prima, hierbij vrede dan ;)

Laat ik het anders stellen: als de onderzoeksgroep van RoboEarth hun doelstellingen iets meer schaalbaar hadden gemaakt was het al een stuk doeltreffender geweest in mijn ogen, nu moet je namelijk een apart netwerk dedicated daarvoor opzetten (wat volgens mij niet echt handig is als je robots in je (werk)omgeving wilt inzetten).

Het idee van gedistribueerde kennis vind ik goed! Dat zeker! Maar de manier hoe het nu is geÔmplementeerd ben ik het niet mee eens. En dat de kosten zo hoog zijn vind ik op zijn minst opvallend.

Verder voor geÔnteresseerden: als je niet een laptop/pc in/aan je robot wilt hebben, kan je kijken naar boardjes zoals de Odroid XU, Intel NUC e.d..
Het mooie aan ROS is dat als je hun ROS-core processen aan elkaar hangt (master url naar een centrale laten verwijzen) dat je er meerdere in een robot zou kunnen hangen (gezien hun lage stroomverbruik is dat zeker een mogelijkheid) en zo zware processen (zoals gezegd de navigation stack) op een aparte unit laten draaien om zo de processen meer parallel te maken.
pls educate me
tientallen K's is nog geen 5,6 miljoen ?
En ja ik heb de bedrijven ook gezien die deze robots commercieel aanbieden en zijn vrij duur maar de robots die ik gezien heb van 50K of meer zijn toch echt geavanceerder dan deze (met name de materialen die gebruikt worden en de gewrichten en de bewegelijkheide vd gewrichten).

Dit zijn toch studenten? Bovendien werken promovendi voor het minimum loon of iets daarboven?

kortom: "show me the money"
Een universiteit is geen commercieel bedrijf. Dat betekent dat de R&D kosten die erin gestopt worden niet over meerdere jaren terugverdiend kunnen worden.

Dat jij geen idee hebt van de totaalkosten van een dergelijk project (1,4M per jaar) doet niets af aan het feit dat het dat daadwerkelijk kost.

En ook al is het iemands promotie, vergeet niet dat daar begeleiding voor nodig is (hoogleraren hebben een salaris tot §100,000 volgens de "normale" schalen), robots voor gekocht moeten worden, een research environment gecreeerd moet worden met apparatuur, huur moet worden betaald voor de ruimte/het lab (ja, dit is echt waar) + alle al in eerdere posts genoemde argumenten.

Je kunt het best veel vinden, maar het is de realiteit.
ik realiseer me ook dat ik me een beetje als troll opstel in deze maar er zijn ook 4 universiteiten mee gemoeid?

Is dit een promotie? of een afstudeerproject?

Om hoogleraren met jaarsalaris te noemen van 100K lijkt me overdreven want ze zijn niet 100% van hun tijd bezig met begeleiding.

Zijn de robots bijvoorbeeld vd 'ground up' ontwikkeld? Of is dit off the shelf? Dit zou een groot gedeelte vh budget verklaren.

En ja dit lijkt me veel geld voor een concept idd.
5.6 miljoen is een aardig bedrag inderdaad, maar het gaat hard.

Gemiddelde kosten voor een promovendus zijn, inclusief begeleiding, benodigdheden en salaris rond de 180k per jaar. 0.7 miljoen gedurende dit project van 4 jaar dus. Daar heb je er al meer van ťťn van.

Een robot bouwen kan je voor 15 - 25k doen, maar aangezien het hier hoogstwaarschijnlijk uitbesteed is mag dat nog wel een paar keer over de kop, en zit je in de 100k - 250k range.

Bijkomende kosten zullen ook nog wel een duit in het zakje doen. Dan gaat de 5.6 snel op!
Het was wel meer dat 5.6 miljoen, want die 5,6 miljoen was alleen wat ze aan Europese subsidie kregen. Wat te denken van overige sponsoring..
Hij doet het niet, hun wel voor een bedrag van 5.6 miljoen, hij wordt gedownmod door mijn mede modders maar hij heeft wel een punt en een vraag die gesteld mag worden.

Als je miljoenen stopt in een robot(netwerk) stop dan ook wat geld in een normaal netwerk. Dat is gewoon opbouwende kritiek die uitgesproken mag worden.
Kabal je bent gewoon een beetje lui, als je nu op de link drukt in het bovenstaand artikel dan kom je op de website en daar kan je precies lezen wat de doelstellingen zijn. Er is een heel groot aantal publicaties gedaan, je kan zelfs de deliverables lijst lezen en wanneer meetings zijn etc.
Duik er in zou ik zeggen en ga lezen.
Anders doen jullie seikerds het even beter, als ik geld zou hebben had ik zo veel mogelijk aandelen aangeschaft bij dit bedrijf! Wat een tunnelvisie hoor, jullie zien het niet aankomen. Als een robot een robot slimmer kan maken, dan is dat een gouden stuk damned software dat via hetzelfde router communiceert als mijn linksys ^^. We hebben het hier over knect camera's, stel je eens voor dat deze mensen financiŽring voor dedicated hardware kregen......geoptimaliseerde systeem=jackpot!

Kan ik wat geld lenen? LooL
Let wel, het gaat hier niet over het "slimmer" maken van robots, dat kan alleen gedaan worden door de programmatuur zelf aan te passen. Maar eerder door gedistribueerde kennis kan je de taken beter verdelen, simpel gezegd door een hive-mind te creŽren.
Dit is een over het netwerk gedeelde pointcloud zoals die ook al uit de Kinect komt rollen.

OP EEN ROBOT.

Dat is dus 10x niks. Bedank Microsoft maar voor de Kinect, anders hadden ze dit waarschijnlijk te hoog gegrepen gevonden.

Schijnbaar zit er veel werk in het idee van talen voor robots om alles generiek te houden. En het doen van cloud-dingen zal wel nieuw zijn voor de onderzoekers.

Het is ze wel gelukt. Dat's het belangrijkste.
Je moet bedenken dat er veel dataverkeer is over die netwerken, bijvoorbeeld kinectdata die gevisualiseerd word. Er reden best wel wat robots rond, ook buiten de demo voor andere projecten. En op de TU hangen behoorlijk wat andere netwerken en dat kan elkaar storen, ook met 11 WiFi kanalen. Een dag eerder was er geen probleem, dus ze hadden ook last van het demo-effect.
Anders hebben we met Amigo praktisch nooit last van netwerk-issues.

Wat betreft kinect: volgens mij was het probleem bij het laten vallen van dat pakje sap dat de gripper te weinig kracht leverde. Om wat voor reden dan ook.
Oorspronkelijk zat er op Amigo een stereocamera. Het probleem daarbij was dat die een veel lagere framerate gaf, vel en veel duurder was en andere problemen had met nauwkeurigheid.
De Kinect is zo goedkoop dat er ook op de base van Amigo eentje zit, om ook lage obstakel goed te kunnen zien.

Bron: was bij de demo afgelopen donderdag en werk via TechUnited vaak met Amigo, de witte robot in het filmpje.
Dat is ook een kwestie van vooruit denken. Om de genoemde redenen zijn wij bezig met de PrimeSense Carmine Short Range die op kortere afstand kan zien met minder ruis.

Wat betreft WiFi is het vaak druk. Echter, als je een 802.11N router die op 5GHz werkt gebruikt zit je op een frequentie die behoorlijk leeg is, aangezien de meeste netwerken op 802.11N 2.4 GHz werken of zelfs nog 802.11G zijn. Dat levert direct een stuk minder storing op waardoor je draadloze verbinding een stuk betrouwbaarder wordt, zelfs in een omgeving waar veel andere draadloze netwerken zijn.

Overigens ziet het er in het filmpje niet uit of er niet voldoende kracht gezet wordt. Het is eerder dat de hand zo geplaatst wordt dat het pakje alleen op de hoeken gepakt wordt, waardoor er weinig contactoppervlak en dus weinig grip is. Harder knijpen kan wel, maar dan vervorm je het pakje. Wat de betere oplossing geweest was, was de arm zo te draaien dat het pakje recht in de hand kwam. Dan was er minder kracht nodig en toch meer grip waardoor het pakje niet was gevallen.

[Reactie gewijzigd door MadEgg op 19 januari 2014 10:09]

Zou het niet beter zijn, om bijvoorbeeld bijvoorbeeld BeamForming technologie te gebruiken bij toegangspunten voor dit soort toepassingen. Waarbij de Wifi signalen gericht op het device worden afgestemd in plaats van een omni-radius signaal te hanteren? Zodoende zou je interferentie van andere Wifi kanalen kunnen uitsluiten en ook de bandbreedte kunnen maximaliseren, waardoor je meer throughput kan halen.

[Reactie gewijzigd door Noeandee op 20 januari 2014 12:08]

Misschien is dat het verschil tussen een (mbo, hbo) programmeur en theoretische ICT :) ?

[Reactie gewijzigd door PsvFan123 op 19 januari 2014 09:47]

Als dit theoretische ICT is, waarom maken ze dan zo'n lousy demo? Dan kun je het beter laten bij een TED Talk. Als dit normale kosten zijn voor zo weinig resultaat, dan is het geen wonder dat crowdfunded mini projecten zo populair zijn tegenwoordig. Maar goed: laten we het zien als versie 0.0.1. Laten we hopen dat de professionals in de opensource wereld er nog wat van kunnen maken.
Wat ik een beetje begrijp is dat de hoofdvraag van het project ging over comminucatie tussen robots en het leren van elkaar. Wat ze in de video ook zeggen is dat het in kaart brengen en samenvoegen van de data wel goed ging.

Ze hebben niet zelf een nieuw draadloos netwerk en camera ontwikkeld. Dat zijn dus externe factoren en hoort niet bij de onderzoeks casus. Ja natuurlijk hadden ze dit beter moeten regelen en heeft dit invloed op het opereren van het systeem, maar dit is niet de hoofd onderzoeks vraag?

Dat zelfde geldt voor de robots, zijn dit bestaande robots welke ze een beetje aangepast hebben voor hun doel of hebben ze deze vanuit scratch zelf ook ontwikkelt. lijkt me dat daar ook aparte projecten voor zijn om nieuwe robots te ontwikkelen. Dit doen ze natuurlijk ook al met het voetbal team.

Ik zie de leer factor tussen de robots alleen nog niet zo terug, anders dan het in kaart brengen van de ruimte. Als robot 1 het pakje laat vallen dan moet hij hier eerst zelf van leren alvorens hij het aan robot 2 kan melden. Daar wordt helaas weinig over gemeld.
Een van de onderzoeksdoelen was het delen van actieplannen tussen robots. De robots kunnen redeneren over de plannen en hun eigen capabilities.
Bijvoorbeeld: Amigo heeft wielen en twee armen. Pera is alleen een arm en Pico (robot met die laptop op z'n rug) kan alleen rijden en heeft een 3D-camera.

Ze kunnen daarmee beredeneren dat ze een taak als "iets bezorgen" dus kunnen splitsen over die 2 robots. Pico kijkt met zijn camera, zodat de Pera-arm de pringles kan pakken en weer op het dienblad van Pico plaatsen. Amigo kan die taak alleen (als de grijper goed werkt, maar op Amigo zitten ook 2 Pera-armen).

Amigo is vanaf scratch door de TU ontwikkeld, de Pera-armen komen van Philips, Pico is gekocht en zwaar gemodificeerd door de TU/e.
Conclusie we zijn dus nog geen reet verder. Ze weten wel wat er niet lukt (2 jaar geleden wisten we dat ook al maar goed) en ze hebben daar nog steeds geen oplossing voor. En hoezo een internet voor robots. Internet is er al en je kunt robots gewoon gebruik laten maken van het bestaande internet je hoeft er geen nieuw platform voor te maken. Daarom snap ik de titel niet. Er is geen speciaal internet voor robots er is een stukje van het bestaande internet gebruikt. Een betere titel zou zijn: 'RoboEarth: een cloud service voor robots'. Daarbij kun je zelf cloud weglaten aangezien het niet echt iets toevoegt. Het zou net zo goed niet met een cloud oplossing gerealiseerd zijn.
En hoezo een internet voor robots. Internet is er al en je kunt robots gewoon gebruik laten maken van het bestaande internet je hoeft er geen nieuw platform voor te maken. Daarom snap ik de titel niet. Er is geen speciaal internet voor robots er is een stukje van het bestaande internet gebruikt.
Dat is een flauwe opmerking. Het is toch een mooie metafoor? RobotEarth is voor de robots zoals het internet/www voor mensen is. Op de website zeggen ze trouwens 'A Worldwide Web for Robots'. Dat past iets beter. Bovendien is het gewoon marketingtaal en dat is tegenwoordig belangrijk in de wetenschap.
"A WWW for robots" is wel erg JipEnJanneke taal

Het is gewoon een cloudoplossing, niet meer en minder. Een Amazon Webservices die voor elke hobbyist toegankelijk is.

Hier een 30min presentatie over RoboEarth. Hij noemt het zelf een Wiki+webapps. 8)7
De benaming is inderdaad jammer. Een internet voor robots slaat inderdaad nergens op. 'Cloud' is er ook weinig aan. Het lijkt een platform voor het offloaden van processingkracht en opslag via internet te zijn wat het delen van deze informatie met andere robots faciliteert. Veel hiervan wordt al bewerkstelligd via ROS, maar het lijkt hier op gericht te zijn om dit op niet-lokale schaal toe te passen.

Ik vermoed dat de hype-term cloud erop doelt dat er geen specifiek hardware staat te wachten op het uitvoeren van specifiek requests maar dat er meer een ongespecifieerd aantal general purpose machines beschikbaar zijn die bepaalde taken voor de robot kunnen uitvoeren. De voornaamste reden voor het toevoegen van de term zal aansluiten op de hyp eromheen zijn, net als in 90% van de gevallen waarin 'cloud'.
Volgens mij heb je dan niet helemaal begrepen wat er werd gezegd.

Het is wťl een 'internet voor robots' want niet alleen is er een cloud, die cloud kan direct door deze robots gebruikt worden om in real time 'elkaar' aan te sturen. Dit is dus geen cloud zoals je online storage dat is. De robots geven elkaar de informatie om 'samen' een probleem op te lossen. De vernuftigheid zit dan ook niet in het hebben van die cloudfunctie, maar het feit dat de robots daarop (uiteindelijk) een beperkte autonomie krijgen, 'wijzer worden'. Dat is exact de functie van het oorspronkelijke internet, dat diende als communicatiemiddel voor het overdragen van kennis.
Ik vind het prachtig maar toch heb ik er altijd een klein naar gevoel bij en denk ik aan de film Terminator met skynet ... ooit gaat het een keer mis :S
Als je even in de realiteit kijkt en hoe het vandaag de dag gesteld is met zelf-denken, bewustzijn en dergelijke bij robots dan zul je zien dat dat nog aardig meevalt (lees: afwezig is). Het gemiddelde insect heeft meer intelligentie en bewustzijn dan een robot. Het voordeel van de robot is dat wij, de makers, goede manieren hebben om hem te laten doen wat we willen doordat we hem kunnen programmeren. Dat gaat de komende tijd echt niet veranderen, dus daar hoef je echt niet bang voor te zijn.

Mochten we ooit wel zover komen dat er iets van bewustzijn in robots waargenomen kan worden, dan is er nog steeds een lange weg te gaan tot ze ons daadwerkelijk te slim af zouden kunnen zijn (in algemeen redenerende zin, niet voor specifieke vraagstukken, want dat kunnen ze natuurlijk al lang).

Hoe we het tegen die tijd gaan doen ligt nog ver in de toekomst, maar om er nu direct vanuit te gaan dat deze robots dan ook daadwerkelijk ons, de mens, zouden willen opruimen is ook wel weer erg doemdenken. Het grootste deel van de mensheid vereert immers ook zijn "maker" (in de zin van religie).
Laat alleen die verering compleet irrationeel zijn en daarbij gaan die mensen ervan uit dat God een superieur wezen is. Je kan het beter vergelijken met de relatie tot je ouders, je daadwerkelijke makers. Vereer je deze ook tot in de lengte van dagen of kies je op een gegeven moment je eigen plan wat dus ook inhoudt dat je keuzes maakt die tegen hun wensen in druisen?

Ik ben geen doemdenker, maar het is niet echt realistisch om te veronderstellen dat wanneer een AI een ons qua intellect passeert deze nog steeds naar onze bevelen zal luisteren. Niet dat die daarmee direct iedereen gaat uitroeien natuurlijk. Maar het waarschijnlijker dat deze op een gegeven moment zijn eigen plant trekt dan dat deze ons zal vereren als goden.
Absoluut, ooit, in de verre toekomst (en dat gaan wij niet meer meemaken), zullen robots zo ver gevorderd zijn dat zij hun eigen plan gaan trekken. Maar ik ga er zeker niet vanuit dat dat plan ons uitroeien is. Er zijn natuurlijk ook mensen wiens plan het is om mensen uit te roeien, ellende te brengen, de wereld te veroveren etc. Het schraapsel uit de pan des levens zullen we maar zeggen. Tja, dat soort afwijkingen zullen op den duur ook bij robots kunnen voorkomen. Deze mensen hebben wij uiteindelijk allemaal in enigszins in toom weten te houden (de VS daargelaten 8)7 ), ik ga er vanuit dat dat ons mensen ook lukt bij de robots, en zo niet, dan toch in ieder geval dat de 'welwillende' robots hun soortgenoten in toom houden.
Altijd van goeie uitgaan inderdaad! Gelukkig ligt dit allemaal nog erg ver in de toekomst en heeft de mens tot nu toe bewezen elke uitdaging aan te kunnen.
Waarom zou je Łberhaupt die kinect camera gaan gebruiken als dat ding maar voor een halve meter goed kan zien....
vanaf een halve meter. Hebben wij ook "last" van. Is inderdaad onbruikbaar als er iets van heel dichtbij geobserveerd moet worden. Maar verder zijn er andere methoden om lokalisatie met beeld, zoals differentie-integratie, kijken naar de verschoven vlakken en kan je aan de hand van de verhouding met de andere verschuivingen de afstand bepalen.
Hmm, ik dacht juist "we are the borg"
Ik zat ook al te twijfelen over wanneer dit netwerk een zelfbewustzijn manifesteert ;-)
Hmmm, het object stond te dicht bij voor de kinect sensor om duidelijk te kunnen zien en de positie er van te kunnen bepalen. Dus eigenlijk is de robot verziend.

Daar hebben mensen ook wel een last van, en dan zetten ze een bril op. Bijvoorbeeld als ze de krant willen lezen. Waarom niet een setje lenzen voor de kinectcamera zetten. De ruimte is gescand, dus de positie van de robot ten opzichte van het object is bekend. Dan kan deze toch besluiten een lens voor de camera te schuiven die beter past bij de relatieve afstand. Dan rest er alleen nog een stukje tweede brugklas optica.

Maar goed, dit alles vanuit mijn beperkt perspectief op zaken natuurlijk.
Dat heeft meer te maken met het IR-raster dat de kinect projecteert en die de IR-sensor moet kunnen zien. Er zit hier zo'n 10cm tussen, dus als het object te dichtbij is of heel erg reflecteert kan de camera dat rooster niet correct oppikken.

Dus het argument over brugklas optica gaat niet op, want met alleen optiek kan je geen diepte zien. Hopelijk heeft dit je perspectief verbreedt ;)
Jeetje wat een knullig resultaat na 4 jaar en 5,6 mio euro [afgestudeerd biorobotica]. Alles wat ik zag, ruimtedetectie met SLAM, ROS systeem, PCL, SIFT (OpenCV) bestaat allemaal al jaren. Laat staan een pakje pakken op een witte achtergrond. Wat een keus om voor een 5.6mio project een Kinect te gebruiken zeg, komop. Koop gewoon een Softkinectic Depthsense 325, die werkt vanaf een centimeter of 5.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*