Robotique N°1

Pourquoi la robotique autonome est-elle complexe ?

Introduction

Les robots sont profondément présents dans notre imaginaire, grâce à un large éventail de livres, de films et autres histoires. Cependant, depuis la première utilisation du terme « Robotique » par Isaac Asimov dans son livre Runaround et ses célèbres Trois lois de la robotique, il est clair que les robots n’avaient pas de grandes attentes. Personne n’a encore eu besoin de mettre en œuvre ces trois lois dans des robots réels et les robots ressemblent plus à des machines automatisées avancées qu’à des robots intelligents.

Pour comprendre pourquoi la robotique est si difficile, nous devons comprendre ce qui constitue des robots autonomes, d’un point de vue fonctionnel. Au lieu de séparer les robots entre le logiciel et le matériel, comme dans de nombreuses entreprises, nous parlerons d’Observation et d’Action. Symboliquement, tout robot possède deux capacités : la première, l’Observation, lui permet de percevoir l’environnement et la seconde, l’Action, lui permet d’agir sur cet environnement. Cela peut être comparé à l’idiome lire/écrire.

De ce point de vue, il apparaît clairement que notre définition d’un robot est très large. De ce point de vue, un compagnon comme Nao est un robot, mais une voiture à conduite autonome, un robot aspirateur, et potentiellement une caméra intelligente pourraient également être considérés comme des robots autonomes (si cette dernière déclenche une action dans le monde réel par exemple). D’un autre côté, un bras robotique industriel est discutable, car il ne peut pratiquement pas observer la scène. En fait, notre définition du robot fait une distinction entre automatique et autonome.

Tout d’abord, nous pouvons définir un « robot automatique » comme une machine qui effectue une action pré-calculée sur la base d’un déclencheur manuel ou d’un capteur de base (détection de pièces, synchronisation, etc.). Par exemple, nous pouvons considérer des robots de soudure qui soudent deux pièces ensemble sur la base d’un déclencheur, où les pièces sont toujours au même endroit et la soudure est toujours la même.

Si nous formalisons le pipeline de traitement, nous avons :

 

Détection ➤ (Contrôle) ➤ Agir.

 

Ensuite, nous pouvons définir un robot autonome comme une machine qui regarde le monde, décide de l’action qu’elle doit faire et la réalise. Par exemple, nous pouvons prendre un robot mobile de prélèvement chargé de détecter la pièce à prélever, de la localiser, de la prélever et de l’amener au prochain poste d’assemblage, sans déranger les personnes qui passent en chemin.

Cette fois, nous pouvons formaliser un pipeline de traitement plus long :

Capter ➤ Percevoir ➤ Comprendre ➤ Planifier ➤ Contrôler ➤ Agir.

 

Ce pipeline est nécessaire en raison de la complexité de la tâche demandée au robot. Dans un robot automatique, une grande partie des étapes décrites ci-dessus sont réalisées par l’ingénieur qui code le comportement attendu. Dans le cas d’un robot autonome, la variété et la diversité des cas rencontrés ne peuvent être codées en dur et doivent être réalisées de manière autonome par le robot. Cette contrainte peut être modélisée en considérant l’espace d’observation et l’espace d’action, montrant le nombre d’observations et d’actions différentes qui peuvent être rencontrées.

Ce graphique tente d’illustrer la diversité des robots, où les robots automatiques, avec un faible espace d’observation et d’action, se trouvent en bas à gauche, tandis que les robots autonomes se divisent en fonction de leur espace d’observation et d’action. Pour les robots autonomes, leur espace d’observation est directement lié à la tâche, et dépend de la difficulté du contexte. Nous pouvons approximativement dire qu’un espace d’action élevé implique toujours un grand espace d’observation nécessaire pour fournir le cas d’utilisation objectif.

Pour l’autonomie, l’observation et l’action sont toutes deux difficiles, mais les applications actuelles se battent sur l’observation, car l’action faisait déjà partie de la précédente révolution de l’automatisation.

Intelligence VS coût

Aujourd’hui, les robots ont du mal à pénétrer le marché. Une raison globale est le coût des robots, divisé entre les coûts du matériel et les coûts de développement. En réalité, ces coûts sont fortement liés aux capacités d’observation et d’action du système. Tout commence par un manque d’intelligence et de méthodes pour pallier cette limitation. La première solution pour contourner ce problème est de multiplier les capteurs et les actionneurs, et d’utiliser des capteurs plus complexes. Cela a un impact direct sur le coût matériel des robots, mais aussi sur son coût logiciel, car il faut développer plus spécifiquement la fusion et l’intégration des capteurs. La deuxième solution largement utilisée est de gérer les cas limites manuellement, c’est-à-dire de programmer un comportement spécifique, qui n’est pas géré par l’intelligence, manuellement par le logiciel. La dernière façon de pallier ce manque d’intelligence est d’utiliser des pièces mécaniques plus précises pour compenser l’incapacité de l’intelligence à corriger une action en cours de route. Toutes ces contre-mesures impliquent une augmentation du coût du robot.

Un exemple d'autonomie : la voiture autonome

Les voitures à conduite autonome constituent probablement l’exemple le plus intéressant des efforts déployés pour faire progresser l’autonomie. Les investissements de plusieurs milliards de dollars réalisés au cours de la dernière décennie témoignent de la complexité de l’atteinte d’une autonomie complète. Malgré le fait qu’un humain puisse conduire une voiture avec ses deux yeux, ses pieds et ses bras uniquement, les entreprises de voitures autonomes peinent à résoudre ce problème. Les actions effectuées par une voiture autonome sont physiquement simples. En fait, les changements sont assez simples pour pouvoir conduire une voiture par fil. Toute la complexité réside dans l’observation et la compréhension. La façon la plus courante de faire face à cette difficulté est d’utiliser des capteurs de haute technologie, essentiellement des lidars 3D qui coûtent des dizaines de milliers de dollars. Comme nous ne sommes pas capables d’interpréter à l’échelle humaine les informations provenant des caméras, nous compensons cette incapacité par des capteurs coûteux. C’est ainsi que nous transformons un problème d’intelligence en un problème de coût.

Pour être précis, toutes les entreprises ne suivent pas cette voie. Tesla est probablement l’entreprise la plus influente qui tente de s’appuyer uniquement sur les caméras et l’intelligence. Cependant, compte tenu du battage médiatique autour des entreprises LIDAR, nous pouvons conclure que de nombreuses personnes dans ce secteur restent dubitatives quant au pari de Tesla.

NEWSLETTER

Conclusion

Dans cet article, nous commençons notre voyage dans le monde de la robotique en définissant l’observation et l’action d’un point de vue abstrait et fonctionnel. Nous faisons également la différence entre les robots automatiques et autonomes en comparant leur espace de représentation associé. C’est ainsi que nous pouvons commencer à entrevoir la complexité de la robotique et comment un problème d’intelligence peut avoir un impact sur tous les aspects d’un robot, du matériel à son coût final.

La raison pour laquelle la robotique est si difficile est évidemment une question complexe avec de nombreuses réponses potentielles. Mais dans les prochains articles, nous allons essayer de creuser ce sujet. Nous verrons que l’observation et l’intelligence jouent toutes deux un rôle clé dans la réponse qui explique pourquoi les robots ne sont pas encore partout dans nos vies.