Cadre MBSE augmenté par l’Intelligence Artificielle pour l’analyse conjointe de la sureté et de la sécurité des systèmes critiques

Les systèmes critiques doivent respecter simultanément des exigences de Sureté de fonctionnement (prévenir les défaillances involontaires pouvant entraîner des dommages) et de Sécurité (protéger contre les attaques malveillantes). Traditionnellement, ces deux domaines sont traités séparément, alors qu’ils sont interdépendants : Une attaque (Sécurité) peut déclencher une défaillance (Sureté), et une faille fonctionnelle peut être exploitée comme vecteur d’attaque.
Les approches MBSE permettent une modélisation rigoureuse du système, mais elles ne capturent pas toujours les liens explicites entre la Sureté [1] et Sécurité [2] ; les analyses de risques sont manuelles, longues et sujettes à erreurs. La complexité des systèmes modernes rend nécessaire l’automatisation de l’évaluation des compromis Sureté-Securité.
La modélisation MBSE conjointe sureté/sécurité a été largement abordé dans plusieurs travaux de recherche tels que [3], [4] et [5]. Le verrou scientifique de cette thèse consiste à utiliser l’IA pour automatiser et améliorer la qualité des analyses. Quel type d’IA devrons nous utiliser pour chaque étape d’analyse ? Comment détecter les conflits entre les exigences de sécurité et de sureté ? Quelle sont les critères pour évaluer l’apport de l’IA dans l’analyse conjointe sureté/sécurité…

Apprentissage profond informé par la physique pour le contrôle non destructif

Ce projet de thèse s’inscrit dans le domaine du contrôle non destructif (CND), un ensemble de techniques qui permettent de détecter des défauts dans des structures (câbles, matériaux, composants) sans les endommager. Le diagnostic repose sur des mesures physiques (réflectométrie, ultrasons…), dont l’interprétation nécessite de résoudre des problèmes inverses souvent mal posés.

Les approches classiques par algorithmes itératifs sont précises mais coûteuses en calcul et difficiles à embarquer pour un traitement proche du capteur. Le travail proposé vise à dépasser ces limites en explorant des approches de deep learning informé par la physique notamment :

* des réseaux neuronaux inspirés des algorithmes classiques (méthode d’unrolling),
* des PINNs (Physics-Informed Neural Networks) qui intègrent directement les lois physiques dans l’apprentissage,
* des modèles différentiables simulant la mesure (réflectométrie notamment).

L’objectif est de développer des modèles profonds interprétables dans un cadre modulaire pour le CND, capables de fonctionner sur des systèmes embarqués. Le cas d’étude principal concernera les câbles électriques (TDR/FDR), avec une ouverture possible vers d'autres modalités comme les ultrasons. Cette thèse combine optimisation, apprentissage et modélisation physique, et s'adresse à un profil motivé par l’interdisciplinarité entre sciences de l’ingénieur, mathématiques appliquées et intelligence artificielle.

Justification visuelle du raisonnement spatio-temporel dans les modèles multimodaux vision-langage

Les modèles vision-langage (VLMs) récents, comme BLIP, LLaVA et Qwen-VL, ont montré de bonnes performances sur des tâches multimodales, mais présentent encore des lacunes en raisonnement spatio-temporel. Les benchmarks actuels confondent souvent raisonnement visuel et connaissances générales, et ne sollicitent que peu de raisonnement complexe. De plus, ces modèles peinent à interpréter les relations spatiales fines et les scènes dynamiques, en raison d’une mauvaise exploitation des caractéristiques visuelles. Pour y remédier, des travaux récents (SpatialRGPT, SpaceVLLM, VPD, ST-VLM) ont introduit des innovations telles que l’intégration de graphes 3D, des requêtes spatio-temporelles ou l’apprentissage par instructions cinématiques. Cette thèse s’inscrit dans cette lignée en proposant une nouvelle approche pour améliorer le raisonnement spatio-temporel des VLMs grâce à des techniques avancées de représentation des données et d’architecture, avec des applications en robotique, analyse vidéo et compréhension d’environnements dynamiques.

Détection d'anomalies dans les vidéos adaptative et explicable

La détection d'anomalies dans les vidéos (VAD) vise à identifier automatiquement les événements inhabituels dans des séquences vidéo qui s’écartent des comportements normaux. Les méthodes existantes reposent souvent sur l'apprentissage One-Class ou faiblement supervisé : le premier n'utilise que des données normales pour l'entraînement, tandis que le second s'appuie sur des labels au niveau de la vidéo. Les récents progrès des modèles Vision-Langage (VLM) et des grands modèles de langage (LLM) ont permis d’améliorer à la fois les performances et l’explicabilité des systèmes VAD. Malgré des résultats prometteurs sur des jeux de données publics, plusieurs défis subsistent. La plupart des méthodes sont limitées à un seul domaine, ce qui entraîne une baisse de performance lorsqu'elles sont appliquées à de nouveaux jeux de données avec des définitions d’anomalies différentes. De plus, elles supposent que toutes les données d'entraînement sont disponibles dès le départ, ce qui est peu réaliste dans des contextes d’utilisation réels où les modèles doivent s’adapter continuellement à de nouvelles données. Peu d’approches explorent l’adaptation multimodale en utilisant des règles en langage naturel pour définir les événements normaux ou anormaux. Or, cela permettrait une mise à jour plus intuitive et flexible des systèmes VAD sans nécessiter de nouvelles vidéos.

Ce sujet de thèse a pour objectif de développer des méthodes de détection d’anomalies vidéo adaptables, capables de traiter de nouveaux domaines ou types d’anomalies en s’appuyant sur peu d’exemples vidéo et/ou des règles textuelles.

Les axes de recherche principaux seront les suivants :
• Adaptation interdomaines en VAD : améliorer la robustesse face aux écarts de domaine via une adaptation Few-Shot ;
• Apprentissage continu en VAD : enrichir le modèle en continu pour traiter de nouveaux types d’anomalies ;
• Apprentissage multimodal en Few-Shot : faciliter l’adaptation du modèle à l’aide de règles en langage naturel.

Un cadre théorique pour la conception et la réalisation de robots sériels modulaires et reconfigurables axés sur les tâches, en vue d'un déploiement rapide.

Les innovations qui ont donné naissance aux robots industriels remontent aux années soixante et soixante-dix. Elles ont permis un déploiement massif de robots industriels qui ont transformé les ateliers, du moins dans certains secteurs de l'industrie tels que la construction automobile et certaines chaînes de production de masse.

Néanmoins, ces robots ne répondent pas totalement à d’autres applications qui sont apparues et se sont développées dans des domaines tels que la recherche en laboratoire, la robotique spatiale, la robotique médicale, l'inspection et la maintenance, la robotique agricole, la robotique de service et, bien sûr, les humanoïdes. Un petit nombre de ces secteurs ont connu un déploiement et une commercialisation à grande échelle de systèmes robotiques, mais la plupart avancent de manière lente et incrémentale.

Une question que l’on peut se poser est de savoir à quoi cela est dû ? Est-ce parce que le matériel n’est pas adapté (capacités physiques insuffisantes pour générer les forces et effectuer les mouvements nécessaires), parce que le logiciel n’est pas suffisamment performant (contrôle commande, perception, décision, apprentissage, etc.), ou parce qu’on ne dispose pas de paradigmes de conception capables de répondre aux besoin de ces applications (possibilités de conception rapide et sur mesure de nouveaux robots) ?

L'explosion sans précédent de la science des données, de l'apprentissage automatique et de l'IA dans tous les domaines de la science, de la technologie et de la société est souvent perçue comme une solution évidente pour répondre au problème, et une évolution radicale se profile ou est anticipée avec la promesse d'autonomiser les prochaines générations de robots grâce à l'IA (à la fois prédictive et générative). En conséquence, on a souvent tendance à apporter une attention particulière à l'aspect logiciel (apprentissage, aide à la décision, codage etc.), sans doute au détriment de capacités physiques améliorées (matériel) et de nouveaux concepts (paradigmes de conception). Il est pourtant clair que les aspects cognitifs de la robotique, notamment l'apprentissage, le contrôle et l'aide à la décision, ne pourront apporter une solution que si des dispositifs adaptés sont disponibles pour répondre aux besoins des diverses tâches que l’on souhaite robotiser, ce qui suppose des méthodologies de conception et un matériel adaptés.

L'objectif de cette thèse est ainsi de se concentrer sur les paradigmes de conception et le hardware, et plus spécifiquement sur la conception optimale de robots série utilisant une famille de « modules » standardisés dont l’agencement sera optimisé pour des familles de tâches données qui ne peuvent pas être accomplies par un robot industriel du marché. L’ambition de ce travail est de permettre de passer d’un catalogue donné de robots à la conception très rapide de solutions robotisées sur mesure.

Le candidat ou la candidate retenu(e) s'inscrira à l’Ecole Doctorale Mathématiques, STIC, de Nantes Université (ED-MASTIC) et sera accueilli(e) pendant trois ans au Service de Robotique Interactive du CEA-LIST à Palaiseau. Les professeurs Clément Gosselin (Laval) et Yannick Aoustin (Nantes) assureront l'encadrement académique de cette thèse qui sera co-encadrée par le Dr Farzam Ranjbaran du CEA-LIST.

Nous envisageons l’opportunité de poursuivre cette collaboration grâce à une bourse postdoctorale d’un an à laquelle le candidat pourrait candidater, une fois les prérequis du doctorat validés. Cette bourse serait hébergée au Centre de recherche en robotique, vision et intelligence artificielle (CeRVIM) de l’Université Laval, au Canada.

Développement d’une méthode de mesure en ligne des gaz radioactifs basée sur les scintillateurs poreux

En tant que laboratoire national de métrologie pour le domaine des rayonnements ionisants, le Laboratoire National Henri Becquerel (LNE-LNHB) du Commissariat à l’Énergie Atomique (CEA) dispose d’installations uniques dédiées à la métrologie des radionucléides, dont différents bancs de production d’étalons en phase liquide et d’autres pour le mélange de gaz radioactifs. Dans le cadre de précédents projets de recherche, une installation a été mise en place pour la production d’atmosphères de gaz radioactifs [1] afin de développer de nouveaux moyens d’essais et d’étalonnage répondant aux besoins de la recherche et de l’industrie dans ce domaine.
Une des grandes problématiques actuelles est de reproduire les conditions environnementales de manière la plus représentative possible, afin de répondre au mieux aux exigences réelles (principalement liées aux contraintes réglementaires) en termes d’activité volumique ou de conditions de mesure. Cette problématique générale concerne toutes les substances radioactives, mais elle est particulièrement importante actuellement pour les substances radioactives volatiles. À travers de nombreux projets et collaborations, le CEA/LNHB explore depuis plusieurs années de nouveaux moyens de détection plus performants que les techniques classiques de scintillation liquide. Parmi ces techniques, on peut citer de nouveaux scintillateurs inorganiques poreux [1] qui permettent non seulement la détection en ligne, mais aussi le dé-mélange en ligne d’émetteurs bêta pur (cette technique a été brevetée [2]).
L’objectif de cette thèse est de développer, de mettre en place et d’optimiser ces méthodes de mesure en les appliquant : 1) à un gaz radioactif pure, 2) en mélange multiples de gaz radioactifs émetteurs beta pure et de les identifier par « dé-mélange » dans le cas des scintillateurs poreux, et 3) de manière plus globale en scintillation liquide, cette possibilité ayant été démontrée récemment au LNHB et en cours de publication. Le dé-mélange a notamment un intérêt car il simplifie grandement les mesures de suivit environnementaux en scintillation notamment pour les mélanges 3H et 14C. Actuellement ils sont réalisés par de multiples prélèvements par bulleur puis mélange à un liquide scintillant et la méthode des triples marquages nécessitant plusieurs mois de préparation en étalonnage et quelques semaines d’expérience et préparation. Cette thèse sera directement en lien avec les travaux d’une seconde thèse sur le Compton-TDCR [1] (2025-2028), qui permettra de déterminer la courbe de réponse des scintillateurs.
Les enjeux scientifiques de ce projet sont donc liés à la métrologie des radionucléides et allient expérimentation, instrumentation et analyse pour le développement de méthodes de mesure. Il s’agira de:
- Développer une méthode d’analyse de dé-mélange d’émetteurs beta pur par scintillation en partant des premières idées publiées et déposées.
- D’évaluer la précision de ces dé-mélanges en estimant les incertitudes associées et les seuils de décision.
- De valider le dé-mélange en utilisant le banc gaz radioactif expérimental du laboratoire [1] pour différents gaz radioactifs 3H, 14C, 133Xe, 85Kr, 222Rn, etc. ou bien la scintillation liquide classique.
- D’améliorer le modèle en développant des outils basés sur la machine learning ou l’intelligence artificielle, s’ils sont nécessaires, pour des mélanges à multiples composantes.

Internalisation des connaissances externes par les modèles de fondation

Pour accomplir une tâche inconnue, un sujet (humain ou robot) doit consulter des informations externes, ce qui implique un coût cognitif. Après plusieurs expériences similaires, il maîtrise la situation et peut agir automatiquement. Les années 1980 et 1990 ont vu des explorations en IA avec des schémas et graphes conceptuels, mais leur mise en œuvre à grande échelle était limitée par la technologie de l'époque.

Les modèles neuronaux actuels, notamment les transformers et les LLM/VLM, apprennent des représentations universelles grâce à un préentraînement sur d'énormes quantités de données. Ils peuvent être utilisés avec des prompts pour fournir un contexte local. L'affinage (fine-tuning) permet de spécialiser ces modèles pour des tâches spécifiques.

Les méthodes de type RAG et GraphRAG permettent d'exploiter des connaissances externes, mais leur utilisation à l'inférence est coûteuse en ressources. Cette thèse propose une approche cognitiviste dans laquelle le système effectue un apprentissage continu. Il consulte des sources externes lors de l'inférence et utilise ces informations pour s'affiner régulièrement, comme pendant le sommeil. Cette méthode vise à améliorer la performance et réduire la consommation de ressources.

Chez l'humain, ces processus sont liés à l'organisation spatiale du cerveau. La thèse étudiera également des architectures de réseaux inspirées de cette organisation, avec des "zones" dédiées mais interconnectées, comme les modèles vision-langage et langage-seul partageant des couches transformers.

Ces concepts peuvent être appliqués aux projets Astir et Ridder, visant à exploiter les modèles de fondation pour l'ingénierie logicielle en robotique et le développement de méthodes d'IA générative pour la commande sécurisée de robots.

Synthèse de nanodiamants à façon pour la production d'hydrogène par photocatalyse

Les nanoparticules de diamant (nanodiamants) sont utilisées en nanomédecine, dans les technologies quantiques, les lubrifiants et les composites avancés [1-2]. Nos résultats récents montrent que le nanodiamant peut également agir comme photocatalyseur, permettant la production d'hydrogène sous illumination solaire [3]. Malgré sa large bande interdite, sa structure de bande est adaptable en fonction de sa nature et de la chimie de sa surface [4]. De plus, l'incorporation contrôlée de dopants ou de carbone sp2 conduit à la génération d'états dans la bande interdite qui améliorent l'absorption de la lumière visible, comme l'a montré une étude récente impliquant notre groupe [5]. Les performances photocatalytiques des nanodiamants dépendent donc fortement de leur taille, de leur forme et de leur concentration en impuretés chimiques. Il est donc essentiel de développer une méthode de synthèse de nanodiamants « sur mesure »,dans laquelle ces différents paramètres peuvent être finement contrôlés, afin de fournir un approvisionnement en nanodiamants «contrôlés », qui fait actuellement défaut.
Cette thèse vise à développer une approche bottom-up pour la croissance de nanodiamants en utilisant un template sacrificiel (billes de silice) sur lequel des germes de diamant < 10 nm sont fixés par interaction électrostatique. La croissance de nanoparticules de diamant à partir de ces germes sera réalisée par dépôt chimique en phase vapeur assisté par micro-ondes (MPCVD) à l'aide d'un réacteur rotatif développé au CEA NIMBE. Après la croissance, les CVD-NDs seront collectés après dissolution du template sacrificiel. Des expériences préliminaires ont démontré la faisabilité de cette approche avec la synthèse de nanodiamants facettés de <100 nm(appelés CVD-ND).
Au cours de la thèse, la nature des germes de diamant (nanodiamants [taille ˜ 5 nm] synthétisés par détonation ou HPHT, ou dérivés moléculaires de l'adamantane) ainsi que les paramètres de croissance CVD seront étudiés afin d'obtenir des CVD-NDs mieux contrôlés en termes de cristallinité et de morphologie. Les nanodiamants dopés au bore ou à l'azote seront également étudiés, en jouant sur la composition de la phase gazeuse. La structure cristalline, la morphologie et la chimie de surface seront étudiées au CEA NIMBE à l'aide du MEB, de la diffraction des rayons X et des spectroscopies Raman, infrarouge et de photoélectrons. Une analyse détaillée de la structure cristallographique et des défauts structurels sera effectuée par microscopie électronique à transmission à haute résolution(collaboration). Les FNDs CVD seront ensuite exposés à des traitements en phase gazeuse (air, hydrogène) afin de moduler leur chimie de surface et de les stabiliser dans l'eau. Les performances photocatalytiques pour la production d'hydrogène sous lumière visible de ces différents CVD-NDs seront évaluées et comparées en utilisant le réacteur photocatalytique récemment installé au CEA NIMBE.

Références
[1] Nunn et al., Current Opinion in Solid State and Materials Science, 21 (2017) 1.
[2] Wu et al., Angew. Chem. Int. Ed. 55 (2016) 6586.
[3] Marchal et al., Adv. Energy Sustainability Res., 2300260 (2023) 1-8.
[4] Miliaieva et al., Nanoscale Adv. 5 (2023) 4402.
[5] Buchner et al., Nanoscale 14 (2022) 17188.

Modélisation et prédiction des émissions électromagnétiques des convertisseurs de puissance par deep learning

Ces dernières années, la compatibilité électromagnétique (CEM) dans les convertisseurs de puissance à semi-conducteurs à 'wide bandgap' (WBG) a suscité un intérêt croissant, en raison des vitesses de commutation élevées et des fréquences accrues qu’ils permettent. Si ces dispositifs améliorent la densité et l’efficacité des systèmes, ils engendrent également des émissions conduites et rayonnées plus complexes à maîtriser. Dans ce contexte, cette thèse porte sur la prédiction, la modélisation et la caractérisation des interférences électromagnétiques (EMI)(> 30 MHz), tant conduites que rayonnées, dans des systèmes électroniques de puissance opérant à haute fréquence. Elle s’appuie sur une méthode de découpage multi-sous-systèmes et une co-simulation itérative, combinée à une caractérisation in situ pour capturer les phénomènes non idéaux et non linéaires. En complément, des techniques deep learning sont utilisées pour modéliser le comportement EMI à partir de données mesurées et simulées. Generative AI est également exploitée pour générer automatiquement des configurations représentatives et variées que l’on peut rencontrer en électronique de puissance, permettant ainsi d’explorer efficacement un large spectre de scénarios EMI. Cette approche vise à renforcer la précision des analyses tout en accélérant les phases de simulation et de conception.

Réduction de la complexité du parc de bâtiments en France pour mieux anticiper la flexibilité de la demande énergétique et l'intégration de la ressource solaire

Ce travail propose de répondre aux enjeux actuels de transition énergétique dans le secteur du bâtiment, premier consommateur d’énergie en France. Les politiques publiques françaises proposent aujourd’hui des solutions de grande ampleur comme des aides à la rénovation énergétique des logements ou des incitations à l’installation de systèmes de production d’énergies renouvelables. A grande échelle, ceci engendre des changements structurants à la fois pour les gestionnaires de bâtiments mais aussi pour les gestionnaires de réseaux énergétiques. De ce fait, les acteurs du secteur doivent revoir leurs prévisions de consommation énergétique et d’impact carbone en intégrant des solutions de flexibilité adaptées au référentiel français. Pour répondre aux enjeux énergétiques et de diminution des émissions de gaz à effet de serre, quelques leviers de flexibilité sont déjà en place mais certains autres doivent être anticipés en tenant compte des scénarios long terme de rénovation énergétique et de déploiement du gisement renouvelable notamment photovoltaïque à l'échelle du parc français. La problématique de la massification est donc sous-jacente. C'est pourquoi cette thèse propose d’implémenter une méthodologie de réduction de la dimension du parc français sur des critères préalablement définis. En particulier, l’objectif sera de définir un nombre restreint de bâtiments de référence statistiquement représentatifs des comportements résultant de l’application de stratégies de flexibilité répondant aux enjeux énergétiques et de limitation des émissions de gaz à effet de serre. Pour ce faire, le CSTB (Centre Scientifique et Technique du Bâtiment) développe et met à disposition une base de données des bâtiments du parc français (BDNB : Base de Données Nationale des Bâtiments) renfermant notamment des informations sur la morphologie, les usages, les principes constructifs ou encore les consommations et performances énergétiques.

Top