Catherine Pelachaud et les ACA

Lors de ma visite à Futurapolis, Catherine Pelachaud participait à la conférence « Quand les robots pleureront ». C’est l’occasion pour moi de lui poser quelques questions. Plus tard, elle accepte de faire un Skype avec moi pour approfondir certains points.

Catherine Pelachaud est chercheuse en informatique à l’Université Telecom Paris-Tech et s’est spécialisée dans le domaine de l’interaction humain-machine. Elle nous présente son travail dans cette vidéo.

  • Vidéo de présentation

 

  • Intégralité de la conversation Skype en audio

 

  • Retranscription de l’entretien

H.D. : En quoi consiste votre travail de chercheuse ?

C.P. : Je m’intéresse à de nouveaux types d’interfaces humains-machines : les Agents Conversationnels Animés (ACA).  Ce sont des personnages virtuels, ayant généralement une forme humanoïde, capables de communiquer avec des usagers humains Pour cela, ils utilisent la parole, les expressions du visage, les gestes, etc. Dans un premier temps, nous nous focalisons sur la communication non verbale, les émotions et les attitudes sociales puis nous essayons de déterminer l’influence de tous ces paramètres sur l’ACA : que va-t-il répondre et comment, avec quel type de comportement ?

 H.D. : Avec quels autres domaines collaborez-vous pour votre travail ?

C.P. : Je vous ai parlé juste avant de communication non verbale, d’émotion : tout ça relève de la psychologie, ce qui explique que nous travaillons beaucoup avec des psychologues. Nous sommes aussi amenés à étudier le langage et la phonétique, notamment le modèle de co-articulation. Enfin, nous collaborons avec des spécialistes du traitement de signal, autant acoustique que visuel, afin de mieux analyser ce que dit l’utilisateur et comment il le dit.

H.D. : Concrètement, à quoi servent vos travaux, quelles en sont les applications ?

Image associée
Anna, le chatbot d’Ikea

C.P. : Les ACA sont utilisés par de nombreuses sociétés : SNCF, IKEA, EDF… Sur les sites de ces entreprises, ils sont souvent présents sous forme de Chatbots : on communique avec eux en tapant du texte. Le fait qu’ils présentent une forme humaine invite l’utilisateur à les questionner. Ils lui permettent d’obtenir directement des informations, sans passer par un système de téléphonie. Parfois aussi, les ACA sont des tuteurs virtuels : ils ne sont pas interactifs mais fonctionnent à l’aide de modèles pré-enregistrés qui leur permettent d’encourager par exemple un utilisateur s’il a réussi un exercice ou un jeu.

H.D. : Comment réussissez-vous à modéliser l’émotion sur les visages de vos ACA ?

C.P. : Nous avons créé une interface qui nous permet de bouger les muscles sur l’ACA et de créer différentes expressions. J’utilise en fait des modèles graphiques. La première étape est de représenter les points à l’aide d’un maillage : un ensemble de points positionnés dans un espace 3D, souvent reliés sous forme de triangles. Dans un deuxième temps, on va venir animer le volume pour créer des expressions en simulant des muscles. Prenons l’exemple du muscle situé au niveau du sourcil : le frontalis. On va modéliser le fait qu’il est attaché au front : c’est la partie statique. Quand le muscle est activé, il déplace un point caractéristique du sourcil vers le haut : c’est la partie mobile. Cependant, il serait restrictif de dire que l’activation d’un muscle n’entraîne un changement que sur un seul point. C’est pourquoi nous définissons des zones d’influence pour simuler l’ensemble des zones affectées par la contraction musculaire.

H.D. : Atteint-on un degré de précision similaire pour modéliser l’émotion chez les robots ?

Résultat de recherche d'images pour "ishiguro robot"
Le chercheur Japonais Ishiguro et son robot Geminoïd

C.P. : Les personnages virtuels sont modélisés informatiquement, on peut donc les manipuler beaucoup plus facilement. Les films ont démontré qu’il est possible d’atteindre un très grand réalisme. Cependant, certains roboticiens, notamment le professeur Ishiguro de l’Université d’Osaka, ont réussi à concevoir des robots extrêmement réalistes, notamment du point de vue de la structure de la peau.

Il est nécessaire de prendre en compte la dimension spatiale puisque les ACA restent sur un écran 2D, alors que les robots évoluent dans un environnement. Il y a donc tout le mouvement et le déplacement à prendre en compte, mais qui peut amener plus de proximité auprès de l’utilisateur.

H.D. : Selon vous, quels problèmes peuvent être liés au développement des ACA ?

C.P. : Tout d’abord, il faut savoir que les ACA peuvent être utilisés à des fins commerciales : il est nécessaire d’être conscient du pouvoir de manipulation que peuvent avoir les agents virtuels. Se pose également le problème de la vie privée : est-on toujours prêt à ce qu’une machine connaisse en permanence notre état émotionnel ?

Merci encore à Catherine Pelachaud pour son aide et sa gentillesse ! Cette interview m’aura permis de comprendre qu’il est possible de modéliser l’émotion sur les ACA en représentant les expressions faciales sur des modèles graphiques. J’ai pu aussi mieux saisir leur utilité et les règles éthiques sur lesquelles il faut être vigilant.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *