Malik Ghallab ou la planification en robotique

Pour en savoir plus sur ce qu’est réellement un robot, sur la façon dont on peut le programmer, je me suis rendue au lieu de référence en la matière : le LAAS, le Laboratoire d’Analyse et d’Architecture des Systèmes, à Toulouse.

J’y ai rencontré Malik Ghallab. Ancien directeur du LAAS, actuellement directeur de recherche dans cette même institution, c’est un expert en matière de planification.

  • Vidéo de présentation

 

  • Intégralité de la conversation en audio

 

  • Retranscription écrite de l’interview

H.D. : Pourriez-vous m’expliquer dans quel cadre vous travaillez et sur quoi ?

M.G. : Je travaille dans un laboratoire du CNRS où nous faisons de la recherche mais également de la formation. Mon domaine de recherche concerne la robotique et l’intelligence artificielle, plus exactement une conjonction des deux : l’intelligence artificielle incarnée dans la robotique.

H.D. : Qu’est-ce qu’un capteur ?

M.G. : Un capteur réalise une fonction qui est de prendre en entrée un signal qui peut être électrique, acoustique et de transformer ce signal en une information qui va servir à faire une tâche.

H.D. : Pouvez-vous me donner un exemple de capteur ?

M.G. : Prenons l’exemple d’un thermostat : celui-ci comporte un petit relais et un filament qui se détend quand la température monte et qui se rétracte quand la température baisse. Ainsi, quand deux filaments sont face à face, lorsque la température monte, ils se dilatent et se touchent, ce qui crée un signal électrique. Le capteur “sait” donc qu’il fait assez chaud dans la pièce et qu’il n’est plus nécessaire de la chauffer.

H.D. : Pouvez-vous me donner un exemple appliqué aux robots ?

M.G. : Certains robots ont besoin de mesurer des distances : on a alors un système qui mesure la distance aux obstacles. Cela peut être un LASER par exemple. Ainsi, le robot pourra connaître les distances sur un ou plusieurs plans. On va donc pouvoir construire une image sous forme de nombres des murs qui sont autour de nous. En plus du LASER, on peut avoir une caméra qui va pouvoir nous donner des informations photométriques comme la couleur et la forme des objets présents dans l’environnement. Ces informations vont permettre d’établir par exemple une ressemblance avec un visage et on va pouvoir par la suite utiliser des programmes de reconnaissances de personnes.

H.D. : Pouvez-vous me parler du Deep learning ?

M.G. : On va associer à une image, par exemple, un million de nombres et considérer ce million de nombres comme un vecteur qu’on va comparer à d’autres vecteurs. Prenons l’exemple des stylos : on va définir tous les vecteurs qui caractérisent un stylo et on va essayer de trouver les différences entre ces vecteurs et ceux qui caractérisent des lunettes. Le Deep learning utilise des réseaux de neurones artificiels et des techniques d’optimisation qui se sont révélés très puissants pour faire de la classification et de la reconnaissance d’image. On donne au programme une photo avec une personne qui fait de la cuisine et il va être capable de le deviner.

Cependant, il y a un inconvénient : pour que le programme soit capable de reconnaître cette personne, il faut lui avoir montré préalablement sur des milliers de modèles une personne en train de faire de la cuisine : c’est ce qu’on appelle une base de données. Or pour les robots, l’environnement change sans cesse, il est donc difficile d’appliquer le Deep Learning à ces machines. Mais il est possible d’appliquer aux robots des modèles qui leur permettront de reconnaître une personne ou un objet avec seulement une photo. Le modèle sert donc de base de données.

H.D. : Quels sont les types de programmes d’apprentissage que vous utilisez ?

M.G. : Par exemple, le robot peut faire une tâche : se déplacer d’un endroit à un autre de plusieurs façons. Le robot a plusieurs façons de naviguer selon lesquelles le LASER peut servir ou non. Par exemple, dans un environnement sombre, il saura que ce n’est pas la peine d’utiliser la caméra. Ou encore si l’environnement est encombré, ce ne sera pas nécessaire de planifier le mouvement parce qu’il ne pourra pas se déplacer.

Pour savoir quelle façon est adaptée nous pouvons écrire des programmes mais c’est très compliqué. De ce fait, nous pouvons faire en sorte que le robot apprenne. Pour qu’il apprenne, il faut qu’il expérimente. A force d’expérimenter, il arrive très rapidement à associer la bonne façon de faire une tâche pour qu’il puisse la remplir. On permet au robot d’observer les résultats de ses actions pour une tâche donnée. Si les résultats sont bons, il comprend qu’il a bien réalisé la tâche et qu’il peut donc continuer dans cette direction. Et inversement, si ses résultats ne sont pas bons, il faut qu’il se corrige.

H.D. : Pouvez-vous me parler de la planification ?

La planification est une chose que vous faites sans vous en rendre compte, tout seul. Par exemple, le matin, vous vous levez pour aller au lycée, vous vous préparez… parmi ces choses là, il y en a certaines que vous faites sans y penser. Pour réaliser cette interview, il a fallu vous organiser. Vous vous êtes dit : qui vais-je rencontrer ? Comment vais-je y aller ? Quelles questions vais-je poser ? C’est la planification : vous aviez un but, et relativement à ce but, vous avez conçu un plan pour l’atteindre puis vous avez commencé à l’exécuter. Ce plan a donc guidé votre action. Mais il ne s’est pas fait d’un coup, il s’est affiné peu à peu. Par exemple, avant de prendre rendez-vous, il vous était inutile de savoir où se trouvait exactement le LAAS. C’est après avoir reçu notre réponse qu’il vous a été utile de savoir où il était et comment vous alliez faire pour vous y rendre.

H.D. : Quelles sont les réserves que vous émettez quant aux robots émotionnels ?

Le problème est que beaucoup de gens ne savent pas faire la différence entre l’illusion de faire quelque chose et la réalité de ce que la machine fait. En tant que chercheur, je ne veux pas qu’on trompe les gens, je veux qu’on leur dise que ce n’est qu’une machine, qu’elle n’est pas capable de conscience à ce stade de la recherche, qu’elle n’est pas capable d’éprouver des sentiments ou des émotions. C’est simplement un mécanisme très simple qui va donner l’impression de faire quelque chose, de sourire par exemple.

Le fait de donner à un robot une forme humaine peut être intéressant parce que l’interaction avec les personnes passe plus facilement. Mais c’est aussi à double tranchant parce qu’on va se projeter émotionnellement avec cette machine alors que ce n’est justement qu’une machine. En tant que chercheurs, nous raisonnons sur des capacités à réaliser des tâches, on se ramène toujours à ça : “Qu’est-ce que la machine est capable de faire et dans quelles conditions ?” Pour moi, aujourd’hui, il n’y a pas de capacités émotionnelles dans les machines, on ne sait pas définir l’émotion. Peut-être que ça viendra un jour mais ce n’est pas le cas aujourd’hui. Aujourd’hui, il y a des machines qui sont capables de faire ou non des tâches.

J’ai donc évoqué avec Malik Ghallab les notions de planification, de capteurs et d’apprentissage des robots. Son point de vue sceptique concernant les robots émotionnels m’a aussi permis de prendre de la distance quant à ces machines et de mesurer l’impact qu’elles peuvent avoir.

2 réflexions sur “ Malik Ghallab ou la planification en robotique ”

  • 31 octobre 2017 à 11 h 04 min
    Permalink

    Le travail que vous avez réalisé est vraiment sympa 🙂

    Réponse
    • 31 octobre 2017 à 12 h 34 min
      Permalink

      Merci beaucoup, votre commentaire nous fait très plaisir !
      N’hésitez pas à aller voir les autres articles et à nous poser des questions !

      Réponse

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *