Développement d’algorithmes de Machine Learning pour l’amélioration de l’acquisition et du traitement des images en imagerie radiologique

Le Laboratoire de Mesures Nucléaires du LNPA ( Laboratoire d'étude des technologies du Numérique et des Procédés Avancés) de Marcoule est constitué d’une équipe spécialisée dans les mesures nucléaires de terrain. Ses activités sont réparties entre le développement de système de mesures et l'expertise technique auprès d'installations du CEA ou de partenaires externes (ORANO, EDF, AIEA).
Le LNPA développe et utilise des imageurs radiologiques (gamma et alpha) depuis plusieurs années. Certains des développements réalisés ont donnés lieu à des produits industriels et d’autres imageurs sont toujours en cours de développement et d’amélioration. L’imagerie alpha, en particulier, est un procédé qui permet de déceler des zones de contamination alpha à distance. La localisation du terme source alpha est une étape importante en boîte à gants que ce soit pour un projet d’assainissement et de démantèlement, pour la maintenance en exploitation ou pour la radioprotection des travailleurs. L’alpha caméra est l’outil qui rend accessible la cartographie alpha à distance et depuis l’extérieur des boîtes à gants.
L'objectif de la thèse est de développer et mettre en place des solutions mathématiques de prédiction et de débruitage pour améliorer l'acquisition et le post-traitement d'images radiologiques, et, en particulier, d'images alpha caméra.
Deux axes de recherche principaux seront approfondis :
- Le développement d'algorithme de débruitage d'image en temps réel ou en post-traitement
- Le développement d'algorithme prédictif pour générer des images à statistique élevées sur la base d'échantillons d'images réelles.
Pour ce faire une base de données expérimentale et par simulation sera à établir afin d'alimenter les algorithmes IA.
Ces deux axes de recherche seront concrétisés par la réalisation d’un prototype d’imageur intégrant les fonctionnalités de Machine Learning, une interface d’acquisition et de traitement d’image, qui sera utilisé lors d’une mise en œuvre expérimentale.
A travers cette thèse l’étudiant se forgera de solides connaissances en mesures nucléaires, interaction rayonnement/ matière, traitement d’images scientifiques et aura une vision précise des besoins radiologiques dans le cadre des chantiers d’assainissement / démantèlement.

Méthodes pour la détection rapide d’évènements gravitationnels à partir des données LISA

La thèse porte sur le développement de méthodes d’analyse rapide pour la détection et la caractérisation des ondes gravitationnelles, en particulier dans le cadre de la future mission spatiale LISA (Laser Interferometer Space Antenna) prévue par l’ESA vers 2035.L’analyse des données fait intervenir différentes étapes dont l’une des premières est le « pipeline » d’analyse rapide, dont le rôle est la détection de nouveaux évènements, ainsi que la caractérisation d’évènements. Le dernier point a trait à l’estimation rapide de la position dans le ciel de la source d’émission d’ondes gravitationnelles, et de leur temps caractéristique tel que le temps de coalescence pour une fusion de trous noirs par exemple. Ces outils d'analyse forment le pipeline d'analyse à faible latence (low-latency pipeline). Au-delà de l’intérêt pour LISA, celui-ci joue également un rôle primordial pour le suivi rapide des évènements détectés par des observations électromagnétiques (observatoires au sol ou spatiaux, des ondes radio aux rayons gamma). Si des méthodes d’analyse rapides ont été développées pour les interféromètres au sol, le cas des interféromètres spatiaux tels que LISA reste un champ à explorer. Ainsi, un traitement adapté des données devra prendre en compte le mode de transmission des données par paquet, nécessitant ainsi la détection d’évènements à partir de données incomplètes. À partir de données entachées d’artefacts tels que des glitches, ces méthodes devront permettre la détection, la discrimination et l’analyse de sources diverses
Dans cette thèse, nous proposons de développer une méthode robuste et performante pour la détection précoce de binaires de trous noirs massifs (MBHBs). Cette méthode devra permettre la prise en compte du flux de données tel qu’attendu dans le cadre de LISA, traité de potentiels artefacts (e.g. bruit non-stationnaire et glitches). Elle permettra la production d’alarmes, incluant un indice de confiance de la détection ainsi qu’une première estimation des paramètres de la source (temps de coalescence, position dans le ciel et masse de la binaire) ; une première estimation rapide est essentielle pour initialiser au mieux une estimation plus précise mais plus couteuse de l’estimation de paramètres.

Navigation Multicritères d’un Agent Mobile appliquée à la robotique d’investigation nucléaire

Dans les environnements dangereux ou inaccessibles à l’homme, la robotique mobile joue un rôle essentiel pour assurer l’inspection, l’intervention et la collecte de données. Cependant, naviguer dans ces milieux complexes ne consiste pas seulement à éviter les obstacles : les robots doivent aussi composer avec des zones sans réseau, des sources de contamination, des contraintes énergétiques et des cartes incomplètes. Une première thèse (2023-2026) a introduit une méthodologie de navigation multicritères fondée sur la superposition cartographique et l’agrégation pondérée de contraintes, démontrant la faisabilité d’une planification adaptée en environnement statique simulé.

La thèse proposée visera à étendre cette approche aux environnements dynamiques et partiellement inconnus, nécessitant une prise de décision adaptative en temps réel. Le travail s’appuiera sur des outils de robotique mobile, de fusion de données et d’intelligence décisionnelle, ainsi que sur des moyens expérimentaux permettant des validations réalistes. L’objectif est de rapprocher la navigation robotique des conditions réelles rencontrées dans les chantiers de démantèlement nucléaire, et plus largement dans tous les environnements industriels à risque. Cette thèse offrira au doctorant(e) un environnement de recherche actif, des collaborations pluridisciplinaires et des perspectives solides dans les domaines de la robotique autonome et de la sûreté d’intervention.

Génération assistée de noyaux de calculs complexes en mécanique du solide

Les lois de comportement utilisées dans les simulations numériques décrivent les caractéristiques physiques des matériaux simulés. À mesure que notre compréhension de ces matériaux évolue, la complexité de ces lois augmente.L'intégration de ces lois constitue une étape critique pour la performance et la robustesse des calculs scientifiques. De ce fait, cette étape peut conduire à des développements intrusifs et complexes dans le code.

De nombreuses plateformes numériques telles que FEniCS, FireDrake, FreeFEM, Comsol, proposent des techniques de génération de code à la volée (JIT, pour Just In Time) pour gérer différentes physiques. Cette approche JIT réduit considérablement les temps de mise en oeuvre de nouvelles simulations, offrant ainsi une grande versatilité à l'utilisateur. De plus, elle permet une optimisation spécifique aux cas traités et facilite le portage sur diverses architectures (CPU ou GPU). Enfin, cette approche permet de masquer les détails d'implémentation: une évolution de ces derniers est invisible pour l'utilisateur et est absorbée par la couche de génération de code.

Cependant, ces techniques sont généralement limitées aux étapes d'assemblage des systèmes linéaires à résoudre et n'incluent pas l'étape cruciale d'intégration des lois de comportement.

S'inspirant de l'expérience réussie du projet open-source mgis.fenics [1], cette thèse vise à développer une solution de génération de code à la volée dédiée au code de mécanique des structures de nouvelle génération Manta [2] développé par le CEA. L'objectif est de permettre un couplage fort avec les lois de comportement générées par MFront [3], améliorant ainsi la flexibilité, les performances et la robustesse des simulations numériques.

Le doctorant recherché devra posséder une solide culture numérique et un goût prononcé pour la simulation numérique et la programmation en C++. Il devra faire preuve d’autonomie et être force de proposition. Le doctorant bénéficiera d'un encadrement de la part des développeurs des codes MFront et Manta (CEA), ainsi que des développeurs du code A-Set (collaboration entre Mines-Paris Tech, Onera, et Safran). Cette collaboration au sein d'une équipe multidisciplinaire offrira un environnement stimulant et enrichissant pour le candidat.

De plus, le travail de thèse sera valorisé par la possibilité de participer à des conférences et de publier des articles dans des revues scientifiques à comité de lecture, offrant une visibilité nationale et internationale aux résultats de la thèse.

Le doctorat se déroulera au CEA Cadarache, dans le sud est de la France, au sein du département d'études des combustibles nucléaires de l'Institut REcherche sur les Systèmes Nucléaires pour la production d'Energie bas carbone (IRESNE) [4]. Le laboratoire d'accueil est le LMPC dont le rôle est de contribuer au développement des composants physiques de la plateforme numérique PLEIADES [5], co-développée par le CEA et EDF.

[1] https://thelfer.github.io/mgis/web/mgis_fenics.html
[2] MANTA : un code HPC généraliste pour la simulation de problèmes complexes en mécanique. https://hal.science/hal-03688160
[3] https://thelfer.github.io/tfel/web/index.html
[4] https://www.cea.fr/energies/iresne/Pages/Accueil.aspx
[5] PLEIADES: A numerical framework dedicated to the multiphysics and multiscale nuclear fuel behavior simulation https://www.sciencedirect.com/science/article/pii/S0306454924002408

Développement d’algorithmes de trajectographie basés sur l’apprentissage automatique pour le détecteur Upstream Pixel de LHCb au LHC

Cette thèse vise à développer et optimiser les futures performances de trajectographie de l’expérience LHCb au Grand collisionneur de hadrons (LHC) grâce à l’exploration d’algorithmes avancés d’apprentissage automatique. Le nouveau sous-détecteur Upstream Pixel (UP), situé avant le champ magnétique, jouera un rôle central à partir du Run 5 pour réduire précocement le taux de fausses traces et améliorer la reconstruction rapide des trajectoires dans des environnements à forte multiplicité.

Afin de mener avec succès les programmes de physique ambitieux de LHCb — étude des désintégrations rares, violation de CP dans le Modèle Standard, caractérisation du plasma de quarks et de gluons dans les collisions d’ions lourds — une trajectographie rapide et extrêmement précise est indispensable. Cependant, l’augmentation des taux de données et de la complexité des événements attendue pour les futures prises de données impose de dépasser les méthodes classiques, en particulier dans les collisions noyau-noyau où des milliers de particules chargées sont produites simultanément.

Dans ce contexte, nous étudierons une gamme de techniques modernes d’apprentissage automatique, dont certaines ont déjà fait leurs preuves pour la trajectographie dans le détecteur VELO de LHCb. En particulier, les Réseaux de Neurones à Graphes (Graph Neural Networks, GNN) constituent une solution prometteuse permettant d’exploiter les corrélations géométriques entre impacts pour améliorer l’efficacité de reconstruction tout en réduisant les faux positifs.

Le travail de thèse comprendra dans un premier temps le développement d’une simulation GEANT4 réaliste du détecteur UP afin de produire des jeux de données adaptés à l’apprentissage machine. Dans un second temps, les modèles les plus performants seront optimisés pour une exécution en temps réel sur GPU, en accord avec l’évolution du système de reconstruction Allen de LHCb. Ils seront ensuite intégrés et validés dans le framework logiciel de l’expérience, avec à la clé une contribution majeure à la performance de LHCb pour le Run 5 et les phases ultérieures du programme expérimental.

Inférence cosmologique à partir de l'abondance des amas de galaxies détectés par cisaillement gravitationnel sur les données de la mission Euclid

Les amas de galaxies qui se forment à l’intersection des filaments de matière, sont de très bons traceurs de la distribution de matière de l’Univers et sont une précieuse source d’information pour la Cosmologie.
La sensibilité de la mission spatiale Euclid lancée en 2023 permet une détection aveugle des amas de galaxies à partir des effets de lentille gravitationnelle faibles i.e. étroitement liés à la masse totale projetée. Ce point combiné avec la taille du relevé grand champ (14 000 deg2) devrait permettre de construire un catalogue d’amas de galaxies unique de par sa taille et ses caractéristiques de sélection. Contrairement aux catalogues d’amas de galaxies construits jusqu’à maintenant qui sont détectés par leur contenu baryonique (e.g. via le contenu en gas de l’amas en X ou via l’effet Sunyaev-Zeldovich aux longueurs d’ondes millimétriques ou encore via les emissions dans le visible des galaxies), le catalogue d’amas détectés à partir du cisaillement gravitationnel est directement lié à la masse totale des amas et de ce fait vraiment représentatif de la vraie population d’amas de galaxies ce qui est un atout pour les études sur les amas de galaxies et la cosmologie.
Dans ce cadre, nous avons mis au point une méthode multi-échelle conçue pour détecter des amas de galaxies en s'appuyant uniquement sur leurs effets de lentille gravitationnelle faibles. Cette méthode a été pré-sélectionnée pour produire le catalogue d’amas de galaxies à partir des données de cisaillement de la mission Euclid.
Le projet de thèse a pour but de construire et de caractériser ce catalogue d’amas de galaxies à partir des données collectées lors de la première année d’observation de la mission Euclid (DR1) en s’appuyant sur cette méthode de detection. Le ou la candidat(e) dérivera ensuite des contraintes cosmologiques à partir de la modélisation de l’abondance des amas, en utilisant l’approche Bayésienne classique. Il explorera également l’apport des méthodes d’apprentissage de type SBI (Simulation-Based Inference) pour l’inférence cosmologique.

Top