Observation et Autonomie

Dans cette série d’articles, nous nous pencherons sur l’histoire et les enjeux de la robotique autonome dans le but de proposer des pistes de réflexions sur les éléments manquants au déploiement de l’autonomie à grande échelle. 

Part 1 :

Les débuts de la grande autonomie

D’un point de vue fonctionnel, la robotique autonome opère sous deux angles, commençant par l’observation pour définir l’action. Symboliquement, tout robot possède ces deux capacités : la première lui permet de percevoir l’environnement et la seconde lui permet d’agir avec cet environnement. Les dernières avancées des cobots industriels ou encore des robots humanoïdes de Boston Dynamics témoignent de l’expertise développée dans le domaine de l’action. Historiquement, c’est sous l’angle de l’action qu’ont émergé les premiers automates, dont le fonctionnement reposait davantage sur un simple signal binaire issu d’un capteur que sur une intelligence issue d’une observation. 

Si l’on considère l’automatisation d’un robot comme la capacité à effectuer des tâches sans supervision humaine, alors ces robots automatiques (automates) existaient déjà avant la première révolution industrielle. Toutefois, les robots autonomes ont émergé bien plus tard.

Quelle différence entre automates et robots autonomes ?

Un robot automatique exécute des actions préprogrammées en réponse à un déclencheur manuel ou un capteur basique.

Un robot autonome, en revanche, peut être défini comme une machine qui doit faire une action mais est seulement programmée pour apprendre et observer son environnement. Ainsi, le robot décide des actions intermédiaires à faire pour exécuter l’action finale. 

Au début du XXIe siècle, un nouveau paradigme a émergé dans le secteur de la robotique pour redéfinir les limites de l’autonomie. De fait, les avancées technologiques du secteur se sont accompagnées d’événements stimulant la recherche, notamment sur les voitures autonomes. Après sa première édition en 2004, la DARPA (Defense Advanced Research Projects Agency) a lancé en 2015 le deuxième DARPA Challenge regroupant des acteurs du monde entier pour explorer le champ des possibles concernant les voitures autonomes. Le défi, qui consiste en la réalisation d’un parcours d’un point A à un point B sans chauffeur, fut remporté par Stanley, l’une des premières voitures autonomes. Elle était équipée d’une multiplicité de capteurs (Lidars et caméras pour la perception, GPS pour la localisation) associés au Machine Learning (ML) pour l’interprétation de son environnement. Après cet essai probant, Lidars et ML sont devenus les ingrédients de la recette magique permettant de rendre les voitures plus autonomes. 

Mais qu’entend-on par « rendre les voitures autonomes » ?
Doter un robot d’autonomie repose sur un processus particulier : percevoir, se localiser, planifier, contrôler et agir.  La difficulté qui limite les systèmes autonomes aujourd’hui réside dans la perception. Les capteurs cités précédemment sont généralement utilisés en synergie pour fournir une perception globale de la scène (profondeur, mouvement, sémantique), et le favori reste le Lidar. 

L’intégration du Lidar nécessite l’utilisation de frameworks permettant de comprendre le monde, repérer les obstacles et leurs natures. Cette association rend le capteur capable de passer de l’observation à l’interprétation.

Les niveaux d'autonomie :

Suite au DARPA Challenge et à l’exposition de la recette magique, plusieurs prototypes de niveau 3 d’autonomie ont été atteints. Toutefois, il semblerait que les systèmes d’aujourd’hui aient plafonné à ce niveau et peinent à en dépasser les limites. De fait, l’utilisation exacerbée des capteurs, notamment des lidars, se révèle être une recette limitée pour répondre à une difficulté persistante majeure : la gestion des cas rares.
L’accident de voiture autonome entraînant la mort d’Elaine Herzberg fut le premier de l’histoire et eut de grandes répercussions sur l’industrie de la robotique autonome. En l’occurrence, le système de vision développé par Uber à l’époque fut incapable de reconnaître et d’identifier l’obstacle (humain) en approche sur le bas côté. Bien que très rare, ce type d’accidents reflète la faiblesse des observations sur lesquels reposent les algorithmes de vision artificielle. 

Pour pallier cette difficulté de perception dans les cas rares, les systèmes actuels ont tendance à installer davantage de capteurs pour exploiter une quantité de données qui se veut quasi-exhaustive sur l’environnement du robot. Cela crée des systèmes lourds, complexes, coûteux. Peut-être est-ce ici que réside le problème majeur de l’observation : ne serait-il pas préférable de repenser le système de vision et l’utilisation des capteurs pour remettre l’intelligence au cœur des systèmes autonomes ?

La véritable révolution industrielle aura lieu quand on passera d’automates à des systèmes autonomes dans des milieux non structurés ni contrôlés.

NEWSLETTER