Monitoring long terme et non-invasif des végétaux par spectroscopie dans le MIR
Le LCO (Laboratoire des Capteurs Optiques) développe à la fois des composants de photonique intégrée sur silicium du visible au moyen-infrarouge (sources, guides d'onde, détecteurs), et des capteurs et systèmes innovants. De la recherche technologique amont jusqu'aux transferts industriels, ces capteurs trouvent des applications dans les domaines de l'environnement, de la santé et du domaine sécurité/défense.
Une des thématiques de recherche du laboratoire est l'analyse d'échantillons denses par spectroscopie dans le Moyen Infrarouge par une modalité de détection photoacoustique. Forts de résultats encourageant pour le suivi de paramètres physiologiques sur l'humain, nous souhaitons adapter et étendre ces capteurs au domaine du végétal. Des premières mesures en laboratoire donnent des résultats encourageants, mais leur interprétation, de par la complexité de la mesure et de l'objet d'étude, reste à réaliser. C'est l'objet du travail de thèse que nous proposons.
Pour y parvenir, le candidat établira un programme expérimental avec le support de spécialistes en instrumentation et en biologie végétale. Il aura accès aux ressources matérielles et informatiques du laboratoire, et les capacités de prototypage du CEA-Grenoble.
Au terme du travail de thèse, un résultat possible serait la proposition d'un cas d'application du capteur au suivi des végétaux. Le cas d'application comprendrait un protocole expérimental pour la mise en oeuvre de la mesure, et un modèle permettant de remonter à des paramètres physiologiques du végétal pertinents pour les biologistes.
GenPhi : IA Générative 3D conditionnée par la géométrie, la structure et la physique
L’objectif de la thèse est de concevoir de nouveaux générateurs de modèles 3D basés sur l’intelligence artificielle générative (IAG), capables de produire des formes fidèles, cohérentes et physiquement viables. Alors que la génération 3D est devenue essentielle dans de nombreux domaines, les approches actuelles de génération automatique souffrent de limites en termes de respect des contraintes géométriques, structurelles et physiques. L’objectif est de développer des méthodes permettant d’intégrer, dès la génération, des contraintes liées à la géométrie, à la topologie, à la structure interne, ainsi qu’aux lois physiques, tant stationnaires (équilibre, statique) que dynamiques (cinématique, déformation). L’étude combinera des approches de perception géométrique, d’enrichissement sémantique et de simulation physique afin de produire des modèles 3D robustes, réalistes et directement exploitables sans intervention humaine.
Vers une coordination fiable et autonome des workflows dans les systèmes d’IA agentique
L’émergence des grands modèles de langage (LLMs) et des systèmes d’IA agentique transforme en profondeur la manière dont les workflows complexes sont conçus et pilotés. Contrairement aux approches traditionnelles d’orchestration centralisée, les workflows modernes doivent intégrer des agents autonomes et distribués, opérant à travers le cloud, l’edge et les environnements locaux. Ces agents collaborent avec des humains et d’autres systèmes, s’adaptent à des objectifs évolutifs, et franchissent des frontières organisationnelles et de confiance. Ce changement de paradigme est particulièrement pertinent dans des domaines comme la cybersécurité ou la réponse d’urgence en santé, où les workflows doivent être construits et exécutés dynamiquement dans des contextes incertains. Dans de tels environnements, l’automatisation rigide est insuffisante : les workflows agentiques nécessitent une orchestration décentralisée, sécurisée et traçable.
Cette thèse explore comment rendre de tels systèmes possibles, en posant la question : comment assurer une orchestration distribuée, sécurisée et auditable dans des environnements où l’IA agentique opère de manière autonome ? Elle proposera un cadre formel de modélisation des workflows agentiques distribués, des protocoles de coordination traçable et respectueuse de la vie privée, ainsi qu’une architecture de référence illustrée par des cas d’usage réels en cybersécurité et en santé.
Apprentissage Fédéré Robuste et Sécurisé
L’Apprentissage Fédéré (FL) permet à plusieurs clients d’entraîner ensemble un modèle global sans partager leurs données brutes. Bien que cette approche décentralisée soit particulièrement adaptée aux domaines sensibles à la vie privée, comme la santé ou la finance, elle n’est pas intrinsèquement sécurisée : les mises à jour de modèle peuvent révéler des informations privées, et des clients malveillants (Byzantins) peuvent corrompre l’apprentissage.
Pour faire face à ces défis, deux grandes stratégies sont employées : l’Agrégation Sécurisée, qui préserve la confidentialité en masquant les mises à jour individuelles, et l’Agrégation Robuste, qui filtre les contributions malveillantes. Cependant, ces objectifs peuvent entrer en conflit : les mécanismes de confidentialité peuvent masquer les signes de comportements malveillants, tandis que la robustesse peut nécessiter un accès à des informations sensibles.
De plus, la majorité des travaux se concentrent sur les attaques au niveau des modèles, négligeant les menaces au niveau du protocole, comme les délais de message ou les mises à jour perdues — des comportements fréquents dans des réseaux réels et asynchrones.
Cette thèse vise à explorer le compromis entre confidentialité et robustesse en FL, à identifier des modèles de sécurité réalistes, et à concevoir des protocoles pratiques, sûrs et robustes. L’approche combinera une analyse théorique des garanties possibles et une implémentation de prototypes s’appuyant sur des outils comme le calcul multipartite sécurisé, des primitives cryptographiques et la confidentialité différentielle.
Cadre MBSE augmenté par l’Intelligence Artificielle pour l’analyse conjointe de la sureté et de la sécurité des systèmes critiques
Les systèmes critiques doivent respecter simultanément des exigences de Sureté de fonctionnement (prévenir les défaillances involontaires pouvant entraîner des dommages) et de Sécurité (protéger contre les attaques malveillantes). Traditionnellement, ces deux domaines sont traités séparément, alors qu’ils sont interdépendants : Une attaque (Sécurité) peut déclencher une défaillance (Sureté), et une faille fonctionnelle peut être exploitée comme vecteur d’attaque.
Les approches MBSE permettent une modélisation rigoureuse du système, mais elles ne capturent pas toujours les liens explicites entre la Sureté [1] et Sécurité [2] ; les analyses de risques sont manuelles, longues et sujettes à erreurs. La complexité des systèmes modernes rend nécessaire l’automatisation de l’évaluation des compromis Sureté-Securité.
La modélisation MBSE conjointe sureté/sécurité a été largement abordé dans plusieurs travaux de recherche tels que [3], [4] et [5]. Le verrou scientifique de cette thèse consiste à utiliser l’IA pour automatiser et améliorer la qualité des analyses. Quel type d’IA devrons nous utiliser pour chaque étape d’analyse ? Comment détecter les conflits entre les exigences de sécurité et de sureté ? Quelle sont les critères pour évaluer l’apport de l’IA dans l’analyse conjointe sureté/sécurité…
Apprentissage profond informé par la physique pour le contrôle non destructif
Ce projet de thèse s’inscrit dans le domaine du contrôle non destructif (CND), un ensemble de techniques qui permettent de détecter des défauts dans des structures (câbles, matériaux, composants) sans les endommager. Le diagnostic repose sur des mesures physiques (réflectométrie, ultrasons…), dont l’interprétation nécessite de résoudre des problèmes inverses souvent mal posés.
Les approches classiques par algorithmes itératifs sont précises mais coûteuses en calcul et difficiles à embarquer pour un traitement proche du capteur. Le travail proposé vise à dépasser ces limites en explorant des approches de deep learning informé par la physique notamment :
* des réseaux neuronaux inspirés des algorithmes classiques (méthode d’unrolling),
* des PINNs (Physics-Informed Neural Networks) qui intègrent directement les lois physiques dans l’apprentissage,
* des modèles différentiables simulant la mesure (réflectométrie notamment).
L’objectif est de développer des modèles profonds interprétables dans un cadre modulaire pour le CND, capables de fonctionner sur des systèmes embarqués. Le cas d’étude principal concernera les câbles électriques (TDR/FDR), avec une ouverture possible vers d'autres modalités comme les ultrasons. Cette thèse combine optimisation, apprentissage et modélisation physique, et s'adresse à un profil motivé par l’interdisciplinarité entre sciences de l’ingénieur, mathématiques appliquées et intelligence artificielle.
Justification visuelle du raisonnement spatio-temporel dans les modèles multimodaux vision-langage
Les modèles vision-langage (VLMs) récents, comme BLIP, LLaVA et Qwen-VL, ont montré de bonnes performances sur des tâches multimodales, mais présentent encore des lacunes en raisonnement spatio-temporel. Les benchmarks actuels confondent souvent raisonnement visuel et connaissances générales, et ne sollicitent que peu de raisonnement complexe. De plus, ces modèles peinent à interpréter les relations spatiales fines et les scènes dynamiques, en raison d’une mauvaise exploitation des caractéristiques visuelles. Pour y remédier, des travaux récents (SpatialRGPT, SpaceVLLM, VPD, ST-VLM) ont introduit des innovations telles que l’intégration de graphes 3D, des requêtes spatio-temporelles ou l’apprentissage par instructions cinématiques. Cette thèse s’inscrit dans cette lignée en proposant une nouvelle approche pour améliorer le raisonnement spatio-temporel des VLMs grâce à des techniques avancées de représentation des données et d’architecture, avec des applications en robotique, analyse vidéo et compréhension d’environnements dynamiques.
Détection d'anomalies dans les vidéos adaptative et explicable
La détection d'anomalies dans les vidéos (VAD) vise à identifier automatiquement les événements inhabituels dans des séquences vidéo qui s’écartent des comportements normaux. Les méthodes existantes reposent souvent sur l'apprentissage One-Class ou faiblement supervisé : le premier n'utilise que des données normales pour l'entraînement, tandis que le second s'appuie sur des labels au niveau de la vidéo. Les récents progrès des modèles Vision-Langage (VLM) et des grands modèles de langage (LLM) ont permis d’améliorer à la fois les performances et l’explicabilité des systèmes VAD. Malgré des résultats prometteurs sur des jeux de données publics, plusieurs défis subsistent. La plupart des méthodes sont limitées à un seul domaine, ce qui entraîne une baisse de performance lorsqu'elles sont appliquées à de nouveaux jeux de données avec des définitions d’anomalies différentes. De plus, elles supposent que toutes les données d'entraînement sont disponibles dès le départ, ce qui est peu réaliste dans des contextes d’utilisation réels où les modèles doivent s’adapter continuellement à de nouvelles données. Peu d’approches explorent l’adaptation multimodale en utilisant des règles en langage naturel pour définir les événements normaux ou anormaux. Or, cela permettrait une mise à jour plus intuitive et flexible des systèmes VAD sans nécessiter de nouvelles vidéos.
Ce sujet de thèse a pour objectif de développer des méthodes de détection d’anomalies vidéo adaptables, capables de traiter de nouveaux domaines ou types d’anomalies en s’appuyant sur peu d’exemples vidéo et/ou des règles textuelles.
Les axes de recherche principaux seront les suivants :
• Adaptation interdomaines en VAD : améliorer la robustesse face aux écarts de domaine via une adaptation Few-Shot ;
• Apprentissage continu en VAD : enrichir le modèle en continu pour traiter de nouveaux types d’anomalies ;
• Apprentissage multimodal en Few-Shot : faciliter l’adaptation du modèle à l’aide de règles en langage naturel.
Un cadre théorique pour la conception et la réalisation de robots sériels modulaires et reconfigurables axés sur les tâches, en vue d'un déploiement rapide.
Les innovations qui ont donné naissance aux robots industriels remontent aux années soixante et soixante-dix. Elles ont permis un déploiement massif de robots industriels qui ont transformé les ateliers, du moins dans certains secteurs de l'industrie tels que la construction automobile et certaines chaînes de production de masse.
Néanmoins, ces robots ne répondent pas totalement à d’autres applications qui sont apparues et se sont développées dans des domaines tels que la recherche en laboratoire, la robotique spatiale, la robotique médicale, l'inspection et la maintenance, la robotique agricole, la robotique de service et, bien sûr, les humanoïdes. Un petit nombre de ces secteurs ont connu un déploiement et une commercialisation à grande échelle de systèmes robotiques, mais la plupart avancent de manière lente et incrémentale.
Une question que l’on peut se poser est de savoir à quoi cela est dû ? Est-ce parce que le matériel n’est pas adapté (capacités physiques insuffisantes pour générer les forces et effectuer les mouvements nécessaires), parce que le logiciel n’est pas suffisamment performant (contrôle commande, perception, décision, apprentissage, etc.), ou parce qu’on ne dispose pas de paradigmes de conception capables de répondre aux besoin de ces applications (possibilités de conception rapide et sur mesure de nouveaux robots) ?
L'explosion sans précédent de la science des données, de l'apprentissage automatique et de l'IA dans tous les domaines de la science, de la technologie et de la société est souvent perçue comme une solution évidente pour répondre au problème, et une évolution radicale se profile ou est anticipée avec la promesse d'autonomiser les prochaines générations de robots grâce à l'IA (à la fois prédictive et générative). En conséquence, on a souvent tendance à apporter une attention particulière à l'aspect logiciel (apprentissage, aide à la décision, codage etc.), sans doute au détriment de capacités physiques améliorées (matériel) et de nouveaux concepts (paradigmes de conception). Il est pourtant clair que les aspects cognitifs de la robotique, notamment l'apprentissage, le contrôle et l'aide à la décision, ne pourront apporter une solution que si des dispositifs adaptés sont disponibles pour répondre aux besoins des diverses tâches que l’on souhaite robotiser, ce qui suppose des méthodologies de conception et un matériel adaptés.
L'objectif de cette thèse est ainsi de se concentrer sur les paradigmes de conception et le hardware, et plus spécifiquement sur la conception optimale de robots série utilisant une famille de « modules » standardisés dont l’agencement sera optimisé pour des familles de tâches données qui ne peuvent pas être accomplies par un robot industriel du marché. L’ambition de ce travail est de permettre de passer d’un catalogue donné de robots à la conception très rapide de solutions robotisées sur mesure.
Le candidat ou la candidate retenu(e) s'inscrira à l’Ecole Doctorale Mathématiques, STIC, de Nantes Université (ED-MASTIC) et sera accueilli(e) pendant trois ans au Service de Robotique Interactive du CEA-LIST à Palaiseau. Les professeurs Clément Gosselin (Laval) et Yannick Aoustin (Nantes) assureront l'encadrement académique de cette thèse qui sera co-encadrée par le Dr Farzam Ranjbaran du CEA-LIST.
Nous envisageons l’opportunité de poursuivre cette collaboration grâce à une bourse postdoctorale d’un an à laquelle le candidat pourrait candidater, une fois les prérequis du doctorat validés. Cette bourse serait hébergée au Centre de recherche en robotique, vision et intelligence artificielle (CeRVIM) de l’Université Laval, au Canada.
Vers un apprentissage fédéré et un affinement distribué efficace sur des dispositifs hétérogènes et à ressources restreintes
L’objectif de cette thèse est de développer des méthodes visant à améliorer l’efficacité des ressources dans le cadre de l’apprentissage fédéré (FL), en tenant compte des contraintes et de l’hétérogénéité des ressources des clients. Le travail portera dans un premier temps sur l’architecture classique client-serveur de l’apprentissage fédéré, avant d’étendre l’étude aux environnements fédérés décentralisés. Les méthodes proposées seront étudiées à la fois dans le contexte de l’entraînement fédéré de modèles et dans celui de l’affinement distribué de modèles de grande taille, tels que les grands modèles de langage (LLMs).