Onderzoekers van de universiteit van Hertfordshire hebben robots ontwikkeld die verschillende emoties zouden kunnen ontwikkelen. De robots zouden die emoties vervolgens weer tot uitdrukking kunnen brengen door hun lichaamstaal.
De kunstmatige emoties die de robots tentoon kunnen spreiden zijn gebaseerd op affectiemodellen van mensen- en chimpansee-baby's. Net als die baby's zijn de robots geprogrammeerd om zich aan de verzorger te hechten. Daarbij zou een robot een voorkeur ontwikkelen voor mensen die met hem omgaan op een manier die bij zijn 'persoonlijke' profiel past. Naarmate er meer interactie tussen robot en verzorger is, wordt de voorkeur van de robots sterker en 'leren' ze meer.
De emoties waarmee de robots uitgerust zijn, komen tot uitdrukking in hun lichaamstaal: zo kunnen ze onder meer angst, woede, trots en blijdschap tonen. Ook wanneer de verzorger de robot niet troost als deze gestrest is of aandacht wil, heeft dat zijn weerslag op het gedrag van de robot. De 'emotionele robots' werden ontwikkeld door een onderzoeksteam onder leiding van Lola Cañamero, als onderdeel van het door de EC gesubsidieerde project Feelix Growing.
Een volgend EU-project, Aliz-E, moet voortborduren op het werk van Cañamero en haar team: dat zou robots moeten opleveren die in ziekenhuizen als gezelschap voor kinderen met diabetes fungeren. Daarbij zou non-verbaal gedrag een belangrijke rol spelen, net als het vormen van een band tussen de kinderen en de robots.