Contexte du stage La localisation précise d’un robot mobile est une condition essentielle pour la navigation autonome. Une approche couramment utilisée consiste à faire correspondre les données des capteurs embarqués sur le robot à une carte préalablement établie. De nombreuses méthodes existantes reposent sur l’utilisation du même type de capteur (LiDAR ou caméras) pour la cartographie et la localisation. Les capteurs LiDAR offrent des mesures de distance très précises et les solutions permettant de créer des cartes LIDAR à grande échelle sont largement répandues. Toutefois, ces capteurs sont souvent coûteux et encombrants, ce qui les rend difficilement intégrables sur des robots ou des drones de tailles limitées. Les caméras sont quant-à-elles peu coûteuses, légères et largement disponibles, mais il existe peu de solutions robustes pour la création de cartes visuelles à grande échelle. De plus, l’appariement entre une image et une carte visuelle est souvent sensible aux changements d’illumination et aux variations de point de vue. L’objectif de ce stage est de tirer parti des avantages de ces deux types de capteurs en utilisant un LiDAR pour la cartographie et une caméra pour la localisation. Objectifs du stage L’objectif de ce stage est de développer deux approches complémentaires pour la localisation d’une caméra dans une carte LiDAR : Suivi de pose 6-DoF : La première méthode consistera à suivre en continu la pose 6 degrés de liberté (6-DoF) d’une caméra dans une carte 3D issue d’un LiDAR. Cette solution devra permettre une localisation précise et temps réel sous l’hypothèse qu’une estimation initiale approximative de la pose du robot est disponible. Relocalisation vision/LiDAR : La seconde approche visera à estimer la localisation globale du robot dans une carte LiDAR, sans aucune information préalable sur sa position initiale. Elle a pour objectif de servir d’initialisation à la méthode de suivi et, par conséquent, ne nécessite pas de fonctionner en temps réel. Conformément aux engagements pris par le CEA en faveur de l’intégration de personnes en situation de handicap, cet emploi est ouvert à tous et toutes. In line with CEA's commitment to integrating people with disabilities, this job is open to all.
Laboratoire Vision pour la Modélisation et la Localisation (LVML) du CEA Tech LIST mène des recherches en vision par ordinateur et intelligence artificielle. Nous adressons en particulier les problématiques suivantes : - Géolocalisation et cartographie d'environnement par vision et fusion de capteurs (robotique mobile, drones…) - Systèmes et de vision pour la robotique : préhension, manipulation, assemblage d'objets… - Contrôle de conformité, détection de défauts géométriques, colorimétriques, etc… - Analyses hyperspectrales : détection de matériaux, tri, …. - Correction, amélioration d'images et vidéos ( superrésolution, upframing, …) - Compression de réseaux de neurones - …
Le candidat devra disposer d’une bonne maîtrise du C++ et de python et d’une forte connaissance en vision par ordinateur.
Talent impulse, the scientific and technical job board of CEA's Technology Research Division
© Copyright 2023 – CEA – TALENT IMPULSE - All rights reserved