VISUAL BEHAVIOR

Nous travaillons sur le future de la robotique

Visual Behavior fournit des solutions évolutives pour les robots autonomes. Nous développons un logiciel Artificial Visual Cortex émulant le cerveau humain pour fournir aux robots une compréhension de haut niveau de leur environnement. Les produits de Visual Behavior ont pour but d’accéder à des cas d’utilisation inaccessibles pour les drones, les voitures autonomes, les véhicules autoguidés, les robots, l’assistance humaine en intérieur et les interactions homme-robot avancées.

PRODUITS

Notre technologie fournit aux robots toutes les informations nécessaires pour atteindre une autonomie complète. Pour faciliter son intégration, nous avons conçu des produits pour différents types de perception robotique, notamment AGV, ADAS et UAV.

VÉHICULE À GUIDAGE AUTOMATIQUE

AloforAGV est conçu pour rendre les AGV autonomes dans des scénarios complexes, en collaboration avec la main d’œuvre humaine.

Basé sur la technologie Alopix & Alosym, nous fournissons des informations riches sur la géométrie de la scène autour du robot. Les robots mobiles peuvent mieux percevoir les obstacles complexes et les zones accessibles. Notre produit peut être déployé sur n’importe quel ensemble existant de caméras mono ou stéréo.

AGV
SYSTÈME DE CONDUITE AVANCÉE

AloforADAS est spécialisé dans les scénarios de conduite autonome pour aider les humains à assurer la sécurité et une meilleure conduite.

Notre produit fournit aux véhicules la capacité de détecter et de suivre des objets et des obstacles en se basant uniquement sur des caméras monoculaires ou stéréoscopiques. Sans capteurs lidar coûteux, de riches informations sur la géométrie de la scène autour du véhicule sont accessibles pour permettre une application autonome à faible coût.

ADAS
Modules

Comment nous travaillons ?

La technologie de base de Visual Behavior est un cortex visuel artificiel, un logiciel alimenté par l’IA pour la compréhension des scènes. Il est inspiré de l’architecture du cortex visuel des mammifères. La technologie est basée sur un nouveau paradigme centré sur une représentation de la scène plutôt que sur les capteurs. Elle possède une représentation symbolique interne persistante du monde qui est mise à jour avec chaque nouvelle information externe.

Surface de détection et captation du sol

 

Aloxpix a fourni une compréhension spatiale du monde au niveau du pixel. Cela inclut la perception de la profondeur, le mouvement et la segmentation sémantique. Sur la base de son état persistant, le système peut exploiter plusieurs caméras pour une compréhension multi-vues, tout en étant capable de fonctionner en temps réel sur des systèmes embarqués.

Comprendre le comportement humain

 

Comme l’homme raisonne sur le monde par le biais de concepts et d’entités, les robots devraient en faire autant. Alosym comble le vide entre le signal de bas niveau provenant des capteurs multimodaux et la représentation symbolique de haut niveau. Il permet un raisonnement symbolique de haut niveau pour la détection, le suivi, les prédictions et la prévision d’interactions complexes pour les scénarios robotiques.

Ils nous font confiances

LES DERNIÈRES PUBLICATIONS

Pourquoi l’IA en robotique est-elle différente des autres systèmes d’IA ?

Robotics N°1 Pourquoi l'IA en robotique est-elle différente des autres systèmes d'IA ?  Partie 1 : Qu’est-ce qui vous intéresse ? Dans cette série d’articles, nous aborderons les particularités qui rendent l’intelligence artificielle en robotique vraiment différente des autres domaines de l’IA. Disclaimer :…


Lire la suite

Observation & autonomie (Part 3)

Observation & Autonomie Dans cette série d’articles, nous nous pencherons sur l’histoire et les enjeux de la robotique autonome dans le but de proposer des pistes de réflexions sur les éléments manquants au déploiement de l’autonomie à grande échelle.  Part 3 :Déployer l'autonomie à grande échelle Après s’être…


Lire la suite

Vous souhaitez rejoindre notre team ?