Le débat faisait rage il y a quelque temps autour d’une supposée « conscience de soi » sur l’intelligence artificielle, imaginée par un chercheur de Google. Il revient discrètement par un parcours sinueux, celui de la robotique. Une équipe de chercheurs de l’université de Columbia à New York (USA), spécialistes du génie mécanique, de l’informatique et de l’informatique, a réussi à faire bouger un robot en lui imprimant cette capacité à voir littéralement à l’avance comment chaque partie de sa morphologie va se situer dans l’espace selon la tâche qu’il doit accomplir. Il peut donc, en présence d’obstacles, ajuster sa position sans l’aide d’un capteur. L’idée est de simuler le comportement d’un être humain qui prend conscience de son corps et apprend à le contrôler en temps réel en fonction des limitations qui se présentent.

Plus précisément, le robot en question est un bras articulé à quatre degrés de liberté, qui tourne à sa base. Il est activé grâce à l’intelligence artificielle, plus précisément au deep learning. L’article de recherche a été publié dans Science Robotics et fait l’objet d’un site internet où une vidéo décrit la méthode utilisée (voir ci-dessous).

Les chercheurs redoublent de précautions avec la formule « conscience de soi », qui précise que ce que le robot parvient à faire n’est qu’une version brute de ce qui se passe chez l’humain et de la conscience qu’il a de son corps et de son espace. L’équipe est favorable au concept d’« auto-modélisation ».

Fusion de cinq nuages de points

Fusion de cinq nuages de points

Tout commence par une phase d’apprentissage utilisant la vision par ordinateur. Le bras articulé se déplace dans toutes les directions, au hasard, sans objectif particulier, filmé par cinq caméras de profondeur : quatre placées autour de lui et une au-dessus. L’opération a collecté deux données à chaque position : les angles de chaque articulation et une représentation en nuage de points du robot correspondant à ces angles. Chaque caméra génère son propre nuage de points, de sorte que la fusion des cinq aboutit à un modèle 3D du robot.

En 8 secondes, les chercheurs ont collecté 7 888 points de données ; une autre collecte a été réalisée en simulation qui a généré 10 000 points de données. C’est sur cette base que la machine apprend à se « voir » à l’avance, à savoir quelles conséquences dans l’espace aura le mouvement de telle ou telle articulation. En général, disent les chercheurs, les robots savent prédire la position de la seule pièce destinée à effectuer une action (fin compréhensible, tactile ou autre), pas de la morphologie de l’ensemble de la machine.

Le procédé a été testé sur trois exercices : toucher une balle suspendue avec n’importe quelle partie du robot ; toucher cette balle avec le bout du bras ; effectuer la même tâche, mais éviter de heurter un cube sur le côté 20 cm placé à 40 cm au-dessus du bas du bras articulé. Dans ce dernier cas, le plus compliqué et le plus stratégique d’un point de vue applicatif, la machine a réussi 92 fois sur 95.

Auto-visualisation interprétable

Car l’enjeu est en réalité de pouvoir intégrer ce type d’appareil dans des environnements complexes (dans des usines par exemple), où le robot, sans avoir à se configurer, pourrait tout seul éviter les obstacles, éviter les collisions et ajuster sa trajectoire pour effectuer une mission selon les limites de moment.

Mais il y a plus : cette « auto-modélisation » a l’avantage de pouvoir aider à détecter et réparer un bogue. Le robot peut en effet fournir une visualisation de l’image de lui-même qu’il entendait reproduire dans le monde physique, mais qui est empêchée par un problème (motricité, articulation). C’est aux gens d’interpréter cette visualisation et de comprendre ce qui ne va pas. Être « conscient de son corps », c’est aussi savoir où ça fait mal, bref…