Observation & Autonomie

Dans cette série d’articles, nous nous pencherons sur l’histoire et les enjeux de la robotique autonome dans le but de proposer des pistes de réflexions sur les éléments manquants au déploiement de l’autonomie à grande échelle. 

Part 3 :

Déployer l'autonomie à grande échelle

Après s’être intéressé à l’histoire de la voiture autonome et à la problématique de l’observation, nous abordons ici la grande question du déploiement de l’autonomie à grande échelle.

La prochaine révolution industrielle

La robotique industrielle est en pleine expansion en France et dans le monde. Elle permet l’automatisation de nombreuses tâches. En France, on compte une augmentation de 155% dans l’investissement de robots en l’espace de 10 ans ( 2 049 unités en 2010 – 5 245 unités en 2019).

L’automatisation des machines et la mise en place d’AGV (véhicule à guidage automatique) dans les industries est l’une des solutions envisagées sur le long terme pour accompagner et aider les hommes dans leur travail. Ceci s’applique de manière transversale à plusieurs domaines d’activités, allant de la mobilité (voiture autonome) à la logistique (rangement de colis), passant par les robots de service en milieu hospitalier. 

Une partie du succès d’Amazon repose sur une automatisation efficiente de ses entrepôts ajoutée à un génie logistique qui lui permet de dépasser tout autre service de livraison BtoC en termes de temps. Pour la logistique colis, Amazon a intégré de nombreux AGV dans leurs centres de tris en France. 

« Le nouveau site destiné aux AGV, nous permet de gagner en vitesse d’exécution et d’avoir une granularité plus fine dans le tri de nos colis, en les organisant par ville ou par zone.” (Frédéric Duval, directeur Amazon France). Bien que cette solution puisse augmenter l’efficacité des entrepôts Amazon, cela ne signifie pas que ses robots sont plus intelligents et que leur performance sur le long terme sera aussi importante. Le problème réside dans le fait que ces entrepôts aient été construits autour du robot pour que ceux-ci puissent effectuer leur tâche avec efficacité et en toute sécurité. Leur capacité d’adaptation est limitée, donc leur évolution dans ce milieu aussi. 

La vision que nous partageons chez Visual Behavior s’oppose à ce concept pour remettre l’intelligence et l’adaptabilité au cœur de l’activité du robot.

Nous pensons au sein de Visual Behavior que nous arriverons à atteindre la prochaine révolution industrielle quand le monde de la robotique réussira à intégrer des AGV dans les entrepôts sans avoir à les réorganiser.

La progression envisagée n’est pas le changement ou l’adaptation de l’environnement mais l’évolution des systèmes dans les robots pour que ceux-ci s’adaptent à l’environnement tel qu’il est. Ce qui empêche des industries de faire évoluer leurs technologies vers ces nouveaux systèmes autonomes est le manque de solutions alternatives. La plupart des industriels adaptent leurs environnements aux robots qu’ils utilisent, et non le contraire. Une évolution des pratiques d’usages serait donc tout aussi nécessaire pour que l’automatisation des chaînes de production et logistiques soient plus légères et plus souples. 

Aujourd’hui, l’un des freins majeurs au déploiement massif des robots intelligents est le prix. L’utilisation des lidars est assez répandue sur la petite robotique mobile. La recette magique que suggère l’association du machine learning aux lidars est difficilement déployable dans tous les secteurs dû au prix onéreux de ces capteurs. Les entreprises avant-gardistes Tesla et Comma.ai proposent une alternative qui induit que tous les robots autonomes puissent simplement avoir recours à des caméras et à l’intelligence artificielle pour interpréter leur environnement.

Tout est une question d'interprétation

Depuis les années 2000, de nombreux acteurs se sont lancés dans le marché de la robotique pour les particuliers. Entre robot aspirateur, robot cuisinier ou robot jardinier, ces outils sont le début de la petite autonomie à des prix abordables. 

Le défi de ces projets, pour le robot aspirateur par exemple, peut être considéré sous deux angles :

    • L’espace d’observation : fourni par une carte d’emplacement en 2D.
    • L’espace d’action : déterminé par la vitesse du robot et son angle de rotation.

Ces espaces ont été proposés à un prix accessible et, considérant la tâche relativement simple d’un robot aspirateur, l’observation était facile à interpréter pour déduire l’action à prendre. Toutefois, ce résultat n’est pas reproductible sur tous les robots autonomes. Pourquoi est-il difficile de commercialiser un robot jardinier ou cuisinier aujourd’hui ? Parce que leur espace d’observation est plus complexe que celui d’un robot aspirateur.

« La meilleure mécanique ou la meilleure main robotisée est inutile si le robot n’est pas capable de comprendre les concepts associés à un saladier. » (Thibault Neveu, co-fondateur de Visual Behavior)

Aujourd’hui, la plupart des systèmes de vision artificielle sont capables de détecter de nombreux objets et de leur donner un nom mais sont très limités, voire parfois dénués, de compréhension de leurs particularités physiques et de leurs fonctionnalités.

Par exemple, considérons notre développement au stade de l’enfance. Nous apprenons d’abord le concept d’un objet comme un saladier plutôt que son nom. Nous comprenons qu’il est creux, rond et saisissable par le haut ou à deux mains, pas comme une feuille de papier ou une chaise. En grandissant, cette compréhension devient ce qu’on appelle plus généralement le « sens commun ». Comprendre par la suite les caractéristiques physiques d’un bol ou d’une casserole sera moins fastidieux à l’apprentissage. Les applications robotiques autonomes ont besoin de ce sens commun pour interagir avec leur environnement et les objets qui le composent. Ce même challenge de l’autonomie existe aussi pour les voitures autonomes car elles évoluent dans des milieux non structurés et non contrôlés. 

Ces dernières années, le milieu de la robotique a développé de nombreuses solutions montrant que nous savons répondre au challenge de l’action. Les robots humanoïdes de Boston Dynamics sont capables de porter des objets, faire des saltos et même danser ! Les modèles de traitement naturel de langage tels que GPT-3 sont capables de comprendre des phrases complexes et s’adapter rapidement à une nouvelle situation. Les nouvelles architectures de réseaux de neurones artificiels tels que les transformers, ainsi que les méthodes récentes d’apprentissage par renforcement, permettent de considérer de nouvelles capacités de raisonnement et d’action dont nous pourrons doter les futurs robots. 

Newsletter

Conclusion

Selon nous, les limitations au déploiement à grande échelle des robots autonomes résident dans leur intelligence visuelle et leur capacité de compréhension de leur environnement. Quand nous serons capables de fournir aux robots une capacité d’observation et de compréhension de leur milieu semblable au sens commun humain, alors la prochaine révolution industrielle aura lieu.