Comment Feel 1.2 nous imite-t-il pour mieux nous toucher ?

Avant de rencontrer Michelle Blanchard, je me demandais comment il était possible de s’attacher autant à un robot, qui était à mes yeux une simple machine faite de métal, de câbles, et de rouages. Mais Michelle m’a expliqué, lorsque je l’ai interviewée, que Feel 1.2, l’avait touchée par son apparence et ses grands yeux adorables, mais aussi par sa façon de parler, de se mouvoir, proche de celle d’un véritable humain. J’en ai donc déduit que le robot, pour devenir attachant, devait être assez semblable à l’être humain, imiter ses gestes, ses intonations… Mais jusqu’à quel point ?

Des études ont révélé que la génération d’émotion par le robot est essentielle dans l’interaction sociale avec les Hommes. Elle permet de faire intervenir le sentiment d’empathie. L’être humain a ainsi la sensation d’être compris, écouté, ce qui lui donne envie de communiquer avec la machine. Pour cela, le robot doit avoir à la fois un comportement proche de l’Homme et aussi lui ressembler physiquement pour être crédible et accepté.

 DÉFINITION → Empathie : faculté intuitive de se mettre à la place d’autrui, de percevoir ce qu’il ressent.

 Source : le Petit Larousse illustré, 2012

Cependant, une théorie du Japonais Masahiro Mori a mis en lumière un curieux phénomène : plus un robot a l’air humain, plus il attire notre sympathie. Mais lorsque la ressemblance devient frappante, la courbe de la sympathie plonge brutalement et cède à la répulsion : c’est la vallée de l’étrange.

Image représentant l’empathie pour un robot en fonction de sa ressemblance à un être humain

Ainsi, sans être trop semblable à l’Homme, le robot doit pourtant imiter certaines de ses caractéristiques pour éveiller la sympathie. En effet, si vous deviez choisir pour vous aider au quotidien l’un de ces trois robots, lequel choisiriez-vous ?

Alors ? Vous n’avez pas été charmés par le clin d’œil de Han ? Émerveillés par la complexité d’Atlas ? La plupart des gens préfère en effet Pepper. Selon eux, Atlas ne leur ressemble pas assez, et malgré la multitude de câbles et de pièces métalliques apparentes qui pourraient laisser croire qu’Atlas est très évolué, ils n’arrivent pas à le trouver attachant. A l’inverse, Han ressemble beaucoup à un être humain, trop même, et cette ressemble en effraye plus d’un ! Pepper, lui, est entre les deux : il imite certes l’Homme et possède des traits communs avec lui, mais il ne lui ressemble pas trop, et est donc considéré comme « mignon ».

Vous l’avez compris, dans cet article, je vais chercher à comprendre de quelle façon les robots arrivent à imiter l’homme pour exprimer des émotions. Je vais me concentrer sur l’expression des émotions de façon non verbale, c’est-à-dire sans prendre en compte le langage. J’étudierai donc la voix, les expressions faciales, les gestes et les mouvements.

Les expressions faciales

Chez les Agents Conversationnels Animés

Résultat de recherche d'images pour "agents conversationnels animés"
L’agent conversationnel animé Greta

A ce stade de la recherche, les robots émotionnels sont encore assez peu évolués pour imiter ou simuler de façon crédible les expressions faciales liées aux émotions. Généralement, les outils utilisés sont de petits moteurs représentant chacun un muscle-clé dans l’expression faciale de l’émotion. Sauf que le corps humain est si complexe qu’il faudrait des centaines de petits moteurs si l’on voulait reproduire tous les muscles !

Les Agents Conversationnels Animés (ACA) possèdent l’avantage d’être virtuels et de ne pas poser ces problèmes matériels. Certains chercheurs, comme Catherine Pelachaud, parviennent ainsi à atteindre un degré d’imitation assez élevé avec les ACA. On peut imaginer qu’avec les progrès techniques, dans quelques années, ces travaux soient utilisés sur les robots.

Le laboratoire de Catherine Pelachaud a créé un ACA nommé Greta. L’équipe travaille à « améliorer les aspects sociaux et émotionnels des interactions homme-machine » à travers un agent autonome, expressif et réagissant en direct avec l’utilisateur. Ainsi, ces chercheurs sont parvenus à exprimer un panel d’émotions de manière très réaliste.

Image de l’ACA Greta exprimant les 6 émotions de base

Si vous souhaitez en savoir plus sur cette équipe, vous pouvez aller voir l’article relatif à l’interview de Catherine Pelachaud. En attendant, voici sa vidéo de présentation :


Les visages des ACA sont en fait modélisés sur des logiciels qui utilisent la classification FACS (Facial Action Coding System) des expressions faciales.

Chaque muscle est représenté par un point ayant des coordonnées précises. Ainsi, le changement d’une émotion à une autre correspond au déplacement d’un ou plusieurs points correspondant.

Sur cette capture d’écran du logiciel AULibraryEditor :

  • les points représentent des muscles
  • les curseurs situés au bas de l’écran correspondent chacun à une Action Unit et permettent de régler leur intensité
  • les Action Units sont réparties dans les différents onglets selon les régions du visage qu’elles touchent, elles sont aussi séparées pour la partie droite et gauche du visage
  • dans le rectangle situé à droite du visage modélisé, on peut sélectionner une Action Unit en particulier et étudier la position précise du point en réglant les coordonnées
Capture d’écran du logiciel AULibraryEditor pour l’expression de l’accord chez l’ACA Camille

Cette capture d’écran correspond à l’expression de l’accord. Ainsi, le point vert représente l’Action Unit 1, soit le haussement des sourcils, qui active le muscle Frontalis pars medialis se trouvant au niveau de la partie intérieure des sourcils. On voit aussi au bas de l’écran que l’Action Unit 12, activant le muscle Zygomaticus major, est fortement mobilisée dans le cas de l’accord.

Capture d’écran du logiciel AULibraryEditor pour l’expression de la colère chez l’ACA Camille

Sur cette seconde capture d’écran, on observe la modélisation de la colère, qui est notamment caractérisée par l’Action Unit 4 : le muscle Corrigator supercilii dépressor supercilii est activé, il opère un rapprochement entre les deux sourcils. Ici, on voit bien que le curseur correspondant à l’AU4 est réglé sur 100%, ce qui va enclencher le déplacement des points.

Le clonage 3D, une nouvelle technique pour créer des peaux de robots

Une équipe suisse de Disney Research a récemment développé un système de numérisation 3D du visage de personnes pour concevoir ensuite une peau artificielle très proche de la peau humaine. Le but est ainsi de reproduire au mieux les expressions faciales.

  1. La personne simule des expressions avec son visage.
  2. Un traitement informatique représente virtuellement les zones où la peau est déformée.
  3. L’ordinateur évalue l’élasticité du silicone qui permet d’identifier les zones du visage au niveau desquelles l’épaisseur du matériau va évoluer.
  4. Une simulation étudie la déformation du matériau et en déduit les points de fixation du masque.
  5. Le moule modélisé sur l’ordinateur peut ensuite devenir réalité grâce à une imprimante 3D.
Capture d’écran de la vidéo Physical Face Cloning réalisée par Disney Research

Imitation du ton de la voix

La synthèse vocale avec TTS

Dans l’interaction Homme-robot, la voix est presque essentielle. Je me suis intéressée à un système de synthèse vocale en particulier, appelée Text To Speech (TTS), et utilisé par Feel 1.2.

DÉFINITION → Synthèse vocale : enregistrement de phrases, de mots ensuite découpés et organisés en une base de données acoustique.

Pour reproduire les mots à partir d’un texte le système TTS fait tout d’abord une analyse linguistique sophistiquée qui transpose le texte en écriture phonétique.

  • La première étape est l’enregistrement du texte : un narrateur lit des phrases trouvées par exemple dans des articles, des poèmes et même parfois des recettes de cuisine afin de pouvoir obtenir le maximum de sons différents.
  • Ces enregistrements sont ensuite stockés dans une base de données acoustique où ils seront alors découpés en syllabes.
  • Le système TTS opère ensuite une analyse linguistique qui va permettre de transcrire la suite de lettres qui composent le texte initial en écriture phonétique. A chaque phonème est associé la durée et l’intonation de la voix.
  • Pour obtenir une voix la plus naturelle possible, le logiciel pioche dans sa « bibliothèque d’échantillons de parole » et n’a plus qu’à assembler les morceaux de sons ensemble afin de reconstituer le texte phonétique.

Cependant, il y a encore des progrès à faire dans ce domaine. En effet, la voix créée par le système est encore peu naturelle et souvent monocorde.


Imitation des mouvements

Pour imiter au mieux les mouvements humains, différentes techniques sont employées par les chercheurs. Elles s’inspirent des mouvements humains pour offrir au robot une démarche ou une attitude plus naturelle.

Le motion capture

Résultat de recherche d'images pour "motion capture robot"
Le motion-capture utilisé pour le robot Nao

Il est donc nécessaire d’étudier précisément les mouvements humains. Pour cela, certains chercheurs utilisent le motion capture. La technique du motion capture permet d’enregistrer les mouvements, les positions et les rotations d’un objet ou d’un être vivant.

On dispose des marqueurs blancs sur un acteur, au niveau de ses membres et de ses articulations. L’acteur est ensuite filmé, avec une caméra réglée de sorte à ce qu’elle ne capte que les marqueurs. Un logiciel enregistre les mouvements effectués et la trajectoire des marqueurs.

Le biomimétisme

Par la suite, les mouvements enregistrés grâce au motion capture peuvent être transposés au robot. Mais, pour que le robot puisse reproduire au mieux les mouvements transmis par le logiciel, il doit être semblable à un être humain, d’un point de vue physique. C’est ce qu’on appelle le biomimétisme.

C’est une technique scientifique qui consiste à étudier et à s’inspirer de la Nature pour appliquer ces observations à d’autres domaines. Pour que le robot se déplace le plus naturellement possible, il est nécessaire de s’inspirer d’une démarche humaine. Par exemple, la plupart des robots se déplacent en posant le pied bien à plat par terre, ce qui leur confère une démarche pesante et mécanique. Pour y remédier, des chercheurs américains ont étudié la façon dont l’être humain posait son pied pour marcher, c’est-à-dire en posant d’abord le talon, puis les orteils. Ils ont modifié en conséquence le programme de leur robot, Durus, qui marche maintenant de manière tout à fait naturelle.

Mais en quoi la gestuelle des robots, basée sur l’imitation de l’homme, impacte la génération d’émotion par le robot ? De fait, les gestes et mouvements font partie intégrante de l’expression de l’émotion chez l’Homme. Quand on est joyeux ou en colère, on a tendance à faire de grands gestes, pour exprimer l’enthousiasme dans un cas, le refus ou l’énervement dans l’autre. Au contraire, lorsqu’on est triste, on tend à se replier sur nous-même. Les réactions pour la peur sont elles aussi particulières : on tente de se protéger, de la manière la plus adéquate. Ainsi les gestes participent à communiquer l’émotion et en travaillant la gestuelle du robot, on travaille aussi sa capacité à être un robot exprimant l’émotion.


D’autres techniques

Pour mon projet, j’ai eu l’opportunité de rencontrer un chercheur espagnol de Madrid : Alvaro Castro-Gonzalez qui travaille dans le domaine de la robotique sociale, et dont le but est justement de travailler à doter les robots d’émotions artificielles.


Ce chercheur m’a ainsi parlé d’autres techniques utilisées aujourd’hui par les robots pour communiquer une émotion :

  • afficher une image sur la tablette du robot
  • utiliser des LED colorées qui s’allument en fonction de l’émotion
  • jouer sur le mouvement des yeux
Résultat de recherche d'images pour "pepper robot yeux"
Image du robot Pepper

Il est très important aujourd’hui pour les robots de communiquer l’émotion car elle fait partie des normes comportementales et relationnelles et permet de faire d’eux des robots empathiques. Il existe à ce jour des techniques très variées, bien que peu perfectionnées, pour qu’un robot génère l’émotion, qui se basent principalement sur le visage et la voix.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *