Un cadre théorique pour la conception et la réalisation de robots sériels modulaires et reconfigurables axés sur les tâches, en vue d'un déploiement rapide.
Les innovations qui ont donné naissance aux robots industriels remontent aux années soixante et soixante-dix. Elles ont permis un déploiement massif de robots industriels qui ont transformé les ateliers, du moins dans certains secteurs de l'industrie tels que la construction automobile et certaines chaînes de production de masse.
Néanmoins, ces robots ne répondent pas totalement à d’autres applications qui sont apparues et se sont développées dans des domaines tels que la recherche en laboratoire, la robotique spatiale, la robotique médicale, l'inspection et la maintenance, la robotique agricole, la robotique de service et, bien sûr, les humanoïdes. Un petit nombre de ces secteurs ont connu un déploiement et une commercialisation à grande échelle de systèmes robotiques, mais la plupart avancent de manière lente et incrémentale.
Une question que l’on peut se poser est de savoir à quoi cela est dû ? Est-ce parce que le matériel n’est pas adapté (capacités physiques insuffisantes pour générer les forces et effectuer les mouvements nécessaires), parce que le logiciel n’est pas suffisamment performant (contrôle commande, perception, décision, apprentissage, etc.), ou parce qu’on ne dispose pas de paradigmes de conception capables de répondre aux besoin de ces applications (possibilités de conception rapide et sur mesure de nouveaux robots) ?
L'explosion sans précédent de la science des données, de l'apprentissage automatique et de l'IA dans tous les domaines de la science, de la technologie et de la société est souvent perçue comme une solution évidente pour répondre au problème, et une évolution radicale se profile ou est anticipée avec la promesse d'autonomiser les prochaines générations de robots grâce à l'IA (à la fois prédictive et générative). En conséquence, on a souvent tendance à apporter une attention particulière à l'aspect logiciel (apprentissage, aide à la décision, codage etc.), sans doute au détriment de capacités physiques améliorées (matériel) et de nouveaux concepts (paradigmes de conception). Il est pourtant clair que les aspects cognitifs de la robotique, notamment l'apprentissage, le contrôle et l'aide à la décision, ne pourront apporter une solution que si des dispositifs adaptés sont disponibles pour répondre aux besoins des diverses tâches que l’on souhaite robotiser, ce qui suppose des méthodologies de conception et un matériel adaptés.
L'objectif de cette thèse est ainsi de se concentrer sur les paradigmes de conception et le hardware, et plus spécifiquement sur la conception optimale de robots série utilisant une famille de « modules » standardisés dont l’agencement sera optimisé pour des familles de tâches données qui ne peuvent pas être accomplies par un robot industriel du marché. L’ambition de ce travail est de permettre de passer d’un catalogue donné de robots à la conception très rapide de solutions robotisées sur mesure.
Le candidat ou la candidate retenu(e) s'inscrira à l’Ecole Doctorale Mathématiques, STIC, de Nantes Université (ED-MASTIC) et sera accueilli(e) pendant trois ans au Service de Robotique Interactive du CEA-LIST à Palaiseau. Les professeurs Clément Gosselin (Laval) et Yannick Aoustin (Nantes) assureront l'encadrement académique de cette thèse qui sera co-encadrée par le Dr Farzam Ranjbaran du CEA-LIST.
Nous envisageons l’opportunité de poursuivre cette collaboration grâce à une bourse postdoctorale d’un an à laquelle le candidat pourrait candidater, une fois les prérequis du doctorat validés. Cette bourse serait hébergée au Centre de recherche en robotique, vision et intelligence artificielle (CeRVIM) de l’Université Laval, au Canada.
Développement et validation d’algorithmes d’intelligence artificielle, appliqués à l’haptique surfacique, pour l’évaluation des troubles neurodéveloppementaux à travers le toucher et la dextérité
L'objectif de cette thèse est de développer de nouvelles méthodes d'évaluation clinique utilisant des technologies haptique surfaciques, développées au CEA List, et des algorithmes de machine learning pour tester et mesurer l'intégration tactile-motrice. En particulier, la thèse investiguera et validera le développement d'un pipeline d'analyse multimodale qui convertit les signaux haptique et les données des exercices de dextérité (c'est-à-dire les événements de stimulation tactile, la cinématique des doigts, les forces de contact et le timing en millisecondes) en biomarqueurs fiables et interprétables de la perception tactile et du couplage sensorimoteur, puis classera les schémas d'intégration normatifs par rapport aux schémas atypiques avec une fidélité clinique pour l'évaluation.
Résultats attendus : une nouvelle technologie et des modèles pour la mesure rapide et réalisable des déficits tactuo-moteurs en milieu clinique, avec une validation initiale pour différents troubles du neurodéveloppement (c'est-à-dire la psychose, le trouble du spectre autistique et la dyspraxie). Les méthodes développées et les données collectées fourniront :
(1) une bibliothèque de caractéristiques ouverte et versionnée pour l'évaluation tactuo-motrice ;
(2) des classifieurs avec des points de fonctionnement prédéfinis (sensibilité/spécificité) ;
(3) et une pipeline « edge-ready » sur le dispositif, c'est-à-dire capable de fonctionner localement sur une tablette tout en respectant les contraintes de latence, de calcul et de confidentialité des données. Le succès sera mesuré par la reproductibilité des caractéristiques, des tailles d'effet cliniquement significatives et une logique de décision interprétable qui se rapporte à la neurophysiologie connue plutôt qu'à des artefacts.
Détection d'anomalies dans les vidéos adaptative et explicable
La détection d'anomalies dans les vidéos (VAD) vise à identifier automatiquement les événements inhabituels dans des séquences vidéo qui s’écartent des comportements normaux. Les méthodes existantes reposent souvent sur l'apprentissage One-Class ou faiblement supervisé : le premier n'utilise que des données normales pour l'entraînement, tandis que le second s'appuie sur des labels au niveau de la vidéo. Les récents progrès des modèles Vision-Langage (VLM) et des grands modèles de langage (LLM) ont permis d’améliorer à la fois les performances et l’explicabilité des systèmes VAD. Malgré des résultats prometteurs sur des jeux de données publics, plusieurs défis subsistent. La plupart des méthodes sont limitées à un seul domaine, ce qui entraîne une baisse de performance lorsqu'elles sont appliquées à de nouveaux jeux de données avec des définitions d’anomalies différentes. De plus, elles supposent que toutes les données d'entraînement sont disponibles dès le départ, ce qui est peu réaliste dans des contextes d’utilisation réels où les modèles doivent s’adapter continuellement à de nouvelles données. Peu d’approches explorent l’adaptation multimodale en utilisant des règles en langage naturel pour définir les événements normaux ou anormaux. Or, cela permettrait une mise à jour plus intuitive et flexible des systèmes VAD sans nécessiter de nouvelles vidéos.
Ce sujet de thèse a pour objectif de développer des méthodes de détection d’anomalies vidéo adaptables, capables de traiter de nouveaux domaines ou types d’anomalies en s’appuyant sur peu d’exemples vidéo et/ou des règles textuelles.
Les axes de recherche principaux seront les suivants :
• Adaptation interdomaines en VAD : améliorer la robustesse face aux écarts de domaine via une adaptation Few-Shot ;
• Apprentissage continu en VAD : enrichir le modèle en continu pour traiter de nouveaux types d’anomalies ;
• Apprentissage multimodal en Few-Shot : faciliter l’adaptation du modèle à l’aide de règles en langage naturel.
Gestion de réseau pilotée par l'IA avec de grands modèles LLMs
La complexité croissante des réseaux hétérogènes (satellitaire, 5G, IoT, TSN) nécessite de faire évoluer la gestion de réseau. Le Réseau Basé sur l'Intention (IBN), bien qu'avancé, se heurte encore à la difficulté de traduire des intentions de haut niveau en configurations techniques sans ambiguïté. Ce travail propose de lever ce verrou en exploitant les Grands Modèles de Langage (LLM) comme interface cognitive pour une automatisation complète et fiable.
Cette thèse vise à concevoir et développer un framework IBN-LLM pour créer le cerveau cognitif d'une boucle de contrôle fermée au-dessus du SDN. Le travail se concentrera sur trois défis majeurs : 1) développer un traducteur sémantique fiable du langage naturel vers les configurations réseau ; 2) concevoir un Moteur de Vérification déterministe (via simulations ou jumeaux numériques) pour prévenir les « hallucinations » des LLM ; et 3) intégrer une capacité d'analyse en temps réel (RAG) pour l'Analyse de Cause Racine (RCA) et la génération proactive d'intentions d'optimisation.
Nous attendons la conception d’une architecture IBN-LLM intégrée aux contrôleurs SDN, ainsi que des méthodologies pour la vérification formelle des configurations. La contribution principale sera la création d'un modèle basé sur LLM capable d'effectuer la RCA et de générer des intentions d'optimisation en temps réel. La validation de l'approche sera assurée par un prototype fonctionnel (PoC), dont l'évaluation expérimentale permettra de mesurer précisément les performances en termes de précision, de latence et de résilience.