DevOps piloté par les modèles pour l'orchestration cloud : Relier les garanties de conception et d'exécution
L'ingénierie dirigée par les modèles (MDE) repose traditionnellement sur une séparation nette entre conception et exécution, mais cette frontière ne tient plus dans les environnements cloud natifs et edge actuels, où les infrastructures sont hétérogènes, dynamiques et en constante évolution. Les hypothèses validées à la conception peuvent devenir invalides à l'exécution, et les plateformes d'orchestration modernes comme Kubernetes ou OpenStack, bien qu'efficaces, restent faiblement connectées aux environnements de modélisation architecturale. Il en résulte un écart structurel entre la spécification architecturale et le comportement opérationnel réel. Pour combler ce fossé, cette thèse propose de développer un cadre formel de modélisation des contraintes de placement sur des plateformes d'orchestration hétérogènes, en assurant une continuité entre la validation à la conception et les garanties à l'exécution. Ce cadre élèverait les contraintes de placement — localité des ressources, affinité, latence réseau, isolation sécurité, objectifs de qualité de service — au rang de construits de modélisation de premier ordre. À la conception, il permettrait une analyse statique de faisabilité et la génération automatisée d'artefacts de déploiement ; à l'exécution, il assurerait une surveillance continue de la conformité et une reconfiguration adaptative en cas de violation. Les contributions attendues incluent un langage formel de modélisation, des transformations bidirectionnelles entre modèles de conception et représentations d'exécution, ainsi qu'une intégration avec l'outillage Papyrus. L'objectif final est de garantir que l'intention architecturale reste cohérente et vérifiable tout au long du cycle de vie du système, de sa conception jusqu'à son exploitation en production.
Apprentissage multimodal distribué pour la localisation et la classification coopératives de sources acoustiques
Dans de nombreux environnements complexes, tels que les sites industriels, bâtiments sinistrés, espaces publics, il est nécessaire de détecter et localiser automatiquement des événements sonores (chutes, alarmes, voix, pannes mécaniques). Les plateformes mobiles équipés de caméras et de microphones constituent une solution prometteuse, mais une seule plateforme reste limité : son réseau de microphone donne une direction approximative vers la source, mais pas une position précise dans l'espace, et sa caméra peut être obstruée. Ce sujet propose d'étudier comment des multi-plateformes, chacune portant une unité audio-visuelle calibrée, peuvent collaborer pour localiser et classifier ces événements en 3D. Chaque plateforme analyse ses propres observations audio-visuelles et partage une estimation de la direction de la source avec ses voisines ; le réseau combine ensuite ces estimations pour reconstruire la position de l'événement et l'identifier. Les résultats attendus sont un système de localisation coopérative robuste aux occultations et aux défaillances partielles.
CNN léger et GNN causal pour la compréhension des scènes
La compréhension des scènes est un défi majeur dans le domaine de la vision par ordinateur. Les approches récentes sont dominées par les transformers (ViT, LLM, MLLM), qui offrent des performances élevées mais à un coût computationnel important. Cette thèse propose une alternative innovante combinant des réseaux neuronaux convolutifs légers (Lightweight CNN) et des réseaux neuronaux graph causaux (Causal GNN) pour une analyse spatio-temporelle efficace tout en optimisant les ressources computationnelles. Les Lightweight CNN permettent une extraction haute performance des caractéristiques visuelles, tandis que les Causal GNN modélisent les relations dynamiques entre les objets dans un graphe de scène, répondant ainsi aux défis de la détection d'objets et de la prédiction des relations dans des environnements complexes. Contrairement aux modèles actuels basés sur les transformers, cette approche vise à réduire la complexité de calcul tout en conservant une précision compétitive, avec des applications potentielles dans la vision embarquée et les systèmes en temps réel.
Simulations hydrodynamiques de matériaux poreux pour l'endommagement ductile
Le comportement mécanique des matériaux métalliques sous sollicitation fortement dynamique (choc), et en particulier leur endommagement, est une thématique d'intérêt pour le CEA-DAM. Pour le tantale, l'endommagement est de nature ductile : par germination, croissance et coalescence de pores (vides) au sein du matériau. Les modèles usuels d'endommagement ductiles ont été développés à partir d'hypothèses simplificatrices de pores isolés dans la matière. Cependant des études récentes par simulations directes décrivant explicitement une population de pores répartis dans le matériau (ainsi que des observations expérimentales après rupture) ont montré l'importance de l'interaction entre pores pour la prévision de l'endommagement ductile. Toutefois, les mécanismes microscopiques de cette interaction restent à élucider. De plus, ces études numériques doivent être étendues aux échelles de longueur et de vitesses de sollicitation d'intérêt.
L'objectif de la thèse est d'étudier les phases de croissance et de coalescence de l'endommagement ductile au travers de simulations numériques directes d'un milieux poreux soumis à une sollicitation dynamique. Des simulations hydrodynamiques, dans lesquelles des pores seront maillés explicitement au sein d'une matrice continue, seront utilisées afin de se placer aux échelles d'intérêt de temps et de longueur. Le suivi de la population de pores au cours de la simulation renseignera à différents niveaux sur l'influence de l'interaction entre pores pendant l'endommagement ductile. D'abord, le comportement du massif sera comparé à celui prédit par les modèles classiques à pores isolés, montrant l'effet macroscopique de l'interaction entre pores. On s'intéressera également à l'évolution de la distribution de tailles dans la population de pores. Enfin, un dernier objectif sera de comprendre l'interaction microscopique pore à pore. Afin de tirer parti de la richesse des résultats de simulation, des approches issues de l'intelligence artificielle (réseau de neurones sur le graphe associé à la population de pores) seront utilisées afin d'apprendre le lien entre voisinage d'un pore et croissance de celui-ci.
Le/la doctorant(e) aura l'occasion de développer ses compétences en physique des chocs et en mécanique, en simulations numériques (avec l'accès aux supercalculateurs du CEA-DAM) et en science des données.
Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable
Contexte
L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.
La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.
Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.
Projet de doctorat
Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.
Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.
Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.
Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.
La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.
Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.
Références
[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].
Concevoir des outils d’intelligence artificielle pour traquer le relâchement des produits de fission hors du combustible nucléaire.
Le Laboratoire d'Analyse de la MIgration des Radioéléments (LAMIR) au sein de l'Institut de REcherche sur les Systèmes Nucléaires (IRESNE) du CEA Cadarache a développé un ensemble de méthodes de mesure pour caractériser le relâchement des produits de fission hors du combustible nucléaire lors d'un transitoire thermique, dont en particulier un dispositif d'imagerie in situ operando. L'ensemble des données obtenues nécessite l'utilisation d'outils numériques de traitement prenant en compte les spécificités de l'instrumentation en milieu nucléaire et les informations recherchées sur les mécanismes physiques.
L'objectif de la thèse sera de développer une approche optimisée du traitement de ces données en s'appuyant sur l'état de l'art des méthodes d'Intelligence Artificielle (IA).
Dans un premier temps, le travail se focalisera sur le traitement des images acquises pendant la séquence thermique pour détecter les mouvements de matière. On cherchera un dispositif de traitement optimal au sens d’un critère numérique choisi rigoureusement.
Dans un second temps, cette approche sera généralisée à l'ensemble des mesures expérimentales obtenues lors d'une séquence thermique. Idéalement, on vise à obtenir un outil qui puisse aider au diagnostic en temps réel d'une expérience.
La thèse sera menée dans un cadre collaboratif entre le LAMIR qui possède une expérience reconnue pour ce qui est de l'analyse du comportement du combustible nucléaire et l'imagerie des phénomènes liés à ces analyses et l’Institut Fresnel de Marseille qui a développé une solide expérience en matière d'analyses d'images et d'IA. Ce cadre multidisciplinaire permettra au doctorant d’évoluer dans un environnement scientifique stimulant et lui permettra de valoriser ses travaux de recherche, en France comme à l’étranger lors de conférences et de publications dans des revues à comités de lecture.
Détection d'anomalies dans les vidéos adaptative et explicable
La détection d'anomalies dans les vidéos (VAD) vise à identifier automatiquement les événements inhabituels dans des séquences vidéo qui s’écartent des comportements normaux. Les méthodes existantes reposent souvent sur l'apprentissage One-Class ou faiblement supervisé : le premier n'utilise que des données normales pour l'entraînement, tandis que le second s'appuie sur des labels au niveau de la vidéo. Les récents progrès des modèles Vision-Langage (VLM) et des grands modèles de langage (LLM) ont permis d’améliorer à la fois les performances et l’explicabilité des systèmes VAD. Malgré des résultats prometteurs sur des jeux de données publics, plusieurs défis subsistent. La plupart des méthodes sont limitées à un seul domaine, ce qui entraîne une baisse de performance lorsqu'elles sont appliquées à de nouveaux jeux de données avec des définitions d’anomalies différentes. De plus, elles supposent que toutes les données d'entraînement sont disponibles dès le départ, ce qui est peu réaliste dans des contextes d’utilisation réels où les modèles doivent s’adapter continuellement à de nouvelles données. Peu d’approches explorent l’adaptation multimodale en utilisant des règles en langage naturel pour définir les événements normaux ou anormaux. Or, cela permettrait une mise à jour plus intuitive et flexible des systèmes VAD sans nécessiter de nouvelles vidéos.
Ce sujet de thèse a pour objectif de développer des méthodes de détection d’anomalies vidéo adaptables, capables de traiter de nouveaux domaines ou types d’anomalies en s’appuyant sur peu d’exemples vidéo et/ou des règles textuelles.
Les axes de recherche principaux seront les suivants :
• Adaptation interdomaines en VAD : améliorer la robustesse face aux écarts de domaine via une adaptation Few-Shot ;
• Apprentissage continu en VAD : enrichir le modèle en continu pour traiter de nouveaux types d’anomalies ;
• Apprentissage multimodal en Few-Shot : faciliter l’adaptation du modèle à l’aide de règles en langage naturel.
Cadre MBSE augmenté par l’Intelligence Artificielle pour l’analyse conjointe de la sureté et de la sécurité des systèmes critiques
Les systèmes critiques doivent respecter simultanément des exigences de Sureté de fonctionnement (prévenir les défaillances involontaires pouvant entraîner des dommages) et de Sécurité (protéger contre les attaques malveillantes). Traditionnellement, ces deux domaines sont traités séparément, alors qu’ils sont interdépendants : Une attaque (Sécurité) peut déclencher une défaillance (Sureté), et une faille fonctionnelle peut être exploitée comme vecteur d’attaque.
Les approches MBSE permettent une modélisation rigoureuse du système, mais elles ne capturent pas toujours les liens explicites entre la Sureté [1] et Sécurité [2] ; les analyses de risques sont manuelles, longues et sujettes à erreurs. La complexité des systèmes modernes rend nécessaire l’automatisation de l’évaluation des compromis Sureté-Securité.
La modélisation MBSE conjointe sureté/sécurité a été largement abordé dans plusieurs travaux de recherche tels que [3], [4] et [5]. Le verrou scientifique de cette thèse consiste à utiliser l’IA pour automatiser et améliorer la qualité des analyses. Quel type d’IA devrons nous utiliser pour chaque étape d’analyse ? Comment détecter les conflits entre les exigences de sécurité et de sureté ? Quelle sont les critères pour évaluer l’apport de l’IA dans l’analyse conjointe sureté/sécurité…
Méthode primale-duale proximale pour l’estimation conjointe de l’objet et des paramètres d’acquisition inconnus en tomographie.
Dans le cadre de l’utilisation durable et sûre de l’énergie nucléaire au service de la transition énergétique décarbonée, le réacteur de recherche Jules Horowitz, en cours de construction sur le site du CEA Cadarache, est un outil-clé pour l’étude du comportement des matériaux sous irradiation. Une ligne d'imagerie tomographique est prévue en accompagnement des dispositifs expérimentaux afin d'obtenir l'image de la dégradation des échantillons en temps réel. Cette ligne présente des caractéristiques extraordinaires de par sa géométrie et la dimension des objets à caractériser. En conséquence, certains paramètres d'acquisition, indispensables pour la bonne reconstruction de l'image, ne sont pas connus avec précision. Ainsi, l'image finale peut se retrouver fortement dégradée.
L'objectif de cette thèse est de proposer des méthodes permettant l'estimation conjointe de l'objet caractérisé ainsi que des paramètres d'acquisition inconnus. Ces méthodes s'appuieront notamment sur les outils de l'optimisation convexe moderne. Cette thèse explorera également des méthodes de machine learning afin d'automatiser et d'optimiser le choix des hyperparamètres du problème.
La thèse sera réalisée en collaboration entre l'Institut de Mathématiques de Marseille (I2M CNRS UMR 7373, Aix-Marseille Université, site Saint Charles) et le laboratoire de Mesures Nucléaires de l’institut IRESNE du CEA (site de Cadarache, Saint Paul les Durance). Le ou la doctorant(e) évoluera dans un environnement de recherche stimulant en lien avec des problématiques stratégiques liées au contrôle non destructif. Il ou elle pourra également valoriser ses travaux de recherche en France comme à l'étranger.
Localisation et Cartographie Coopératives via des Méthodes d’Apprentissage Exploitant les Multi-trajets Radio
Dans le cadre de cette thèse, on se propose d'explorer le potentiel des méthodes d'apprentissage machine (ML) pour assurer des fonctions simultanées de localisation et de cartographie (SLAM), en s’appuyant sur des signaux multi-trajets transmis entre plusieurs dispositifs radio coopératifs.
L'idée consiste à identifier certaines caractéristiques des canaux de propagation observés conjointement sur plusieurs liens radio, afin de déterminer les positions relatives des dispositifs radio mobiles, ainsi que celles d’objets passifs présents dans leur voisinage. Ces caractéristiques radio reposent typiquement sur les temps d'arrivée d‘échos multiples des signaux transmis. L'approche envisagée doit alors bénéficier de la corrélation de ces trajets multiples au gré du déplacement des dispositifs radio, ainsi que de la diversité spatiale et de la redondance d’information autorisées par la coopération entre ces mêmes dispositifs. Les solutions développées seront évaluées sur la base de mesures indoor collectées à partir des dispositifs ultra large bande intégrés, ainsi que de données synthétiques générées à l'aide d'un simulateur de type « tracer de rayons ».
Les applications possibles concernent la navigation de groupe au sein d’environnements complexes et/ou inconnus (ex. flottes de drones ou de robots, pompiers...).