Reconstruction numérique d’une cuve industrielle pour l’amélioration de l'instrumentation de suivi en temps réel

Dans un contexte de digitalisation de l’industrie et de surveillance en temps réel, il peut être crucial d’avoir accès en temps réel à des champs 3D (vitesse, viscosité, turbulence, concentration…), les réseaux de capteurs locaux étant parfois insuffisants pour avoir une bonne vision de ce qui se passe au sein du système. Ce sujet de thèse se propose d’investiguer une méthodologie adaptée à la reconstruction en temps réel de champs au sein d’une cuve industrielle instrumentée. Pour cela il est envisagé de se baser sur une modélisation éléments finis de la physique d’intérêt au sein de la cuve (fluidique, thermique…), et de méthodes de réduction de modèles basés sur le Machine Learning informé par la physique (approche capteurs virtuels). Le cœur de cette thèse sera également la mise au point de l’instrumentation d’une cuve et de la chaine d’acquisition associée, d’une part pour la validation des modèles, et d’autre part pour la génération d’une base de données pour l’application de la méthodologie.

PREDICTION PAR LA SIMULATION DES VIBRATIONS DANS LES CENTRIFUGUESES

Les machines tournantes sont des équipements critiques dans de nombreuses installations industrielles et leur exploitation s’accompagne régulièrement de problèmes d’équilibrage qui occasionnent l’apparition de vibrations potentiellement dangereuses pour les opérateurs et les équipements. La décanteuse pendulaire centrifuge est parfois le siège de vibrations qui obligent l’exploitant à ralentir la cadence de production. L’environnement nucléaire dans lequel ces équipements sont exploités ne permet pas de réaliser les mesures et observations nécessaires à une étude purement expérimentale. L’objectif est donc de réaliser une modélisation à partir de données limitées afin d’amener à une compréhension fine des phénomènes en jeu. Le sujet de thèse se propose de coupler des simulations CFD de type Euler-Euler de la répartition de masse dans le bol tournant avec une modélisation masse-ressort des liaisons mécaniques afin de s’approcher des signaux vibratoires mesurés industriellement. Un tel outil numérique serait une aide précieuse pour explorer les diverses pistes, sources potentielle d’apparition d’un déséquilibre de masse, et cela sans avoir à passer par une reproduction expérimentale. Associé à des méthodes de deep learning, ce type de modèle permettrait aussi de bâtir un prédicteur de balourds à partir de courts signaux vibratoires ouvrant la porte à un pilotage actif de la décanteuse.

Conception et optimisation d'un concept innovant de couverture tritigène pour réacteur à fusion nucléaire compact à haut flux de chaleur

Compétences :
Techniques : thermique, mécanique des structures, hydraulique, matériaux, simulation numérique
Non technique : rédaction, relationnel, anglais

Prérequis :
Cette thèse sera précédée d’un stage de 6 mois. Contacter l’encadrant pour découvrir le sujet.

Contexte :
Cette thèse porte sur la conception et l'optimisation d'une couverture tritigène innovante pour les réacteurs de fusion nucléaire compacts. La fusion nucléaire offre une solution prometteuse pour produire une énergie propre et durable. Cependant, elle nécessite la production continue de tritium, un isotope rare, à partir de couvertures tritigènes entourant le plasma. Ces couvertures doivent également extraire la chaleur générée. Dans les réacteurs compacts, les contraintes techniques sont accrues par des flux de chaleur et des sollicitations thermiques et neutroniques très élevés.

La thèse se déroulera au sein du Bureau de Conceptions, Calculs et Réalisations du CEA Saclay, un acteur reconnu concernant le développement de couvertures tritigènes à l’échelle européenne. Ce bureau a conçu plusieurs concepts, tels que le HCLL (Helium Cooled Lithium Lead) et le BCMS (Breeder and Coolant Molten Salt), deux types de couvertures basées sur des systèmes de refroidissement à l'hélium ou aux sels fondus.

Description de la thèse :
Le programme de recherche se déroulera sur trois ans. La première année sera dédiée à l'étude des couvertures existantes, à l'identification des contraintes des réacteurs compacts, à la sélection de matériaux et fluides caloporteurs adaptés, et à la conception préliminaire du modèle. Les années suivantes seront consacrées à la modélisation multiphysique (thermique, mécanique, neutronique), suivie de l'optimisation itérative du concept pour améliorer ses performances.

Perspectives :
Les résultats de cette thèse auront un impact significatif sur le développement des réacteurs de fusion compacts, en garantissant la production de tritium et l’intégrité des structures. Ce travail pourrait également ouvrir des perspectives pour des recherches futures sur des couvertures tritigènes encore plus avancées, contribuant à l'essor d'une énergie de fusion durable et commercialement viable.

Analyse en ligne de simulants d'actinides en solution par LIBS et IA pour les procédés de retraitement du combustible

La construction de nouveaux réacteurs nucléaires dans les années à venir implique une augmentation des capacités de retraitement du combustible. Cette évolution requiert des développements scientifiques et technologiques pour mettre à jour notamment les équipements de surveillance du procédé. L’un des paramètres à suivre en continu est la teneur en actinides en solution, donnée essentielle au pilotage du procédé, actuellement mesurée par des technologies obsolètes. On se propose donc de développer la LIBS (laser-induced breakdown spectroscopy) pour cette application, une technique bien adaptée à l’analyse élémentaire quantitative en ligne. Les spectres des actinides étant particulièrement complexes, on souhaite recourir à des approches multivariées de traitement des données, comme certaines techniques d’intelligence artificielle (IA), pour extraire l’information quantitative des données LIBS et caractériser l’incertitude de mesure.
L’objectif de la thèse est donc d’évaluer les performances de l’analyse en ligne d’actinides en solution par LIBS et IA. On visera en particulier à améliorer la caractérisation des incertitudes à travers des méthodes de machine learning, et à les minimiser fortement pour répondre aux besoins de surveillance de l’usine de retraitement du futur.
Le travail expérimental sera réalisé sur des simulants non radioactifs des actinides, et au moyen d’un équipement LIBS commercial. Les données spectroscopiques alimenteront le volet de la thèse sur le traitement des données, et sur la détermination de l’incertitude obtenue par différents modèles de quantification.
Les résultats obtenus permettront de publier au moins 2 à 3 articles dans des revues à comité de lecture, voire de déposer des brevets. Les perspectives de la thèse sont la montée en maturité de la méthode et de l’instrumentation, pour aller progressivement vers une mise en œuvre sur une installation représentative d’un procédé de retraitement.

Compréhension et modélisation des mécanismes de découpe laser pour le démantèlement

Depuis plus de 30 ans, le Laboratoire des Technologies d'Assemblage (LTA) du CEA Saclay mène des recherches pour développer des outils innovants pour le démantèlement des installations nucléaires, en mettant au point des procédés de découpe laser adaptés à des environnements hostiles. Cette technologie permet de découper des matériaux épais, en air ou sous l’eau, et s’est révélée particulièrement efficace pour le démantèlement grâce à sa précision et à sa capacité à limiter la génération d’aérosols. Aujourd’hui, cette technologie est considérée comme sûre et éprouvée, notamment grâce au projet européen "LD-SAFE".
Cependant, des verrous techniques persistent, notamment la gestion de l’énergie laser résiduelle qui, en se propageant au-delà de la pièce découpée, peut endommager les structures environnantes. Des premiers travaux, parmi lesquels une thèse, ont permis de développer des modèles numériques pour prédire et maîtriser cette énergie, apportant des avancées significatives. En revanche, des défis technologiques demeurent, comme la gestion des fortes épaisseurs (>10 mm), la découpe de multi-plaques ou encore la prise en compte de l’ajout d’oxygène pour améliorer l'efficacité de la découpe.
L'objectif de la thèse sera de faire face à ces défis afin de mieux comprendre le procédé de découpe laser et la propagation de l'énergie laser résiduelle. Le doctorant perfectionnera un modèle numérique pour prédire son impact sur les structures en arrière-plan, notamment pour des matériaux épais et des configurations multi-plaques. Le travail inclura le développement d'un modèle multiphysique, validé par des expériences, avec un focus particulier sur l'effet de l'oxygène, la création de modèles simples et l'adaptation pour une utilisation par des opérateurs externes.
La thèse sera réalisée en collaboration entre le Laboratoire des Technologies d’Assemblage (LTA) du CEA Saclay et l’Institut de Recherche Dupuy de Lôme (IRDL - UMR CNRS 6027) de l’Université de Bretagne-Sud (Lorient).

Magnétorésistances géantes pour la caractérisation locale de l’état magnétique de surface: vers des applications du type Contrôle Non-Destructif (CND)

Thèse Cifre dans le domaine du contrôle non destructif par utilisation de capteurs magnétiques en collaboration entre 3 partenaires :

-le Laboratoire de Nanomagnétisme et Oxyde (LNO) du CEA Paris-Saclay
-le Laboratoire de Génie Electrique et Ferroélectricité (LGEF) de l’INSA Lyon
-l’entreprise CmPhy

La grande majorité des aciers de structure et de construction utilisés par l’industrie du transport, de l’énergie et du bâtiment sont ferromagnétiques. Ces aciers possèdent la propriété de s’aimanter sous l’effet d’un champ externe et de conserver un état magnétique lors de sa disparition.

Les propriétés mécaniques et la microstructure sont des marqueurs forts qui permettent d’anticiper l’état de dégradation de ces pièces en acier. Ces informations qui sont fondamentales en production comme en maintenance peuvent être lues de façon indirecte et non-destructive à travers l’observation du comportement magnétique.

Dans cette thèse, nous proposons de développer des capteurs magnétiques de type magnétorésistance géante (GMR) pour remonter à l’état magnétique de surface et indirectement aux contraintes résiduelles, à la microstructure et au niveau de dégradation.
L’utilisation de l’effet de magnétorésistance géante (GMR), basé sur l’électronique de spin permet de développer des capteurs magnétiques innovants, extrêmement sensibles, détectant des champs magnétiques de l’ordre du nT/vHz. Leur taille peut être submicronique ce qui les rends complètements adaptés à la caractérisation de surface. Leur sensibilité est telle que l’effet du champ magnétique terrestre est suffisant pour induire une réponse magnétique mesurable. Ceci permet d’envisager un CND magnétique allégé ne nécessitant pas d’inducteur pour la génération du champ.

Les deux applications principales associées à cette thèse seront:

• Détection de défauts surfaciques ou sous surfaciques (de l’ordre du mm).
• Détecter des variations micro structurelles locales, des contraintes surfaciques ou des déformations plastiques.

Plusieurs aspects pourront être traités pendant la thèse. Une partie intégration dont le but est d’aller jusqu’à la mise au point d’un démonstrateur (un intérêt pour ce démonstrateur a déjà été signifié par de grands groupes industriels tel que Framatome, EDF, DGA, SAFRAN, etc.). Des mesures sur des échantillons tests et en conditions réelles seront en amont réalisées pour valider la technique. En parallèle, un outil de modélisation pour l’analyse des signaux sera développé afin de comprendre et interpréter les résultats.

La Financement CIFRE proposé repose sur la collaboration de 2 laboratoires académiques (le Laboratoire de Nanomagnétisme et Oxyde (LNO) du CEA Paris-Saclay, spécialiste des capteurs magnétiques et le Laboratoire de Génie Electrique et Ferroélectricité (LGEF) de l’INSA Lyon, spécialiste des matériaux magnétiques et de leur applications) et une entreprise CmPhy, qui conçoit et fabrique des équipements d'analyses et de contrôles CND ainsi que des bancs de caractérisation magnétiques.

Mesure et évaluation de la dépendance énergétique des données de neutrons retardés du 239Pu

Cette proposition de thèse vise à mesurer et à caractériser l’émission des neutrons retardés émis par la fission du 239Pu. Cet actinide est impliqué dans divers concepts de réacteurs et la connaissance des données nucléaires qui le caractérisent reste actuellement insuffisante, en particulier en spectre rapide. Ce projet comprend une forte composante expérimentale, avec plusieurs campagnes de mesures sur l'accélérateur électrostatique MONNET au JRC Geel, auxquelles le doctorant prendra activement part.
La première étape de cette thèse consistera à intercomparer les méthodes de mesure du flux neutronique (dosimétrie, chambre à fission, détecteur long-counter et scintillateur à protons de recul) puis de les confronter à des calculs Monte-Carlo simulant l’émission des neutrons par interaction de particules chargées (D+T, D+D, p+T). Ce travail permettra d’assurer la bonne caractérisation du flux neutronique, une étape essentielle pour la suite du projet.
Dans un second temps, le doctorant devra reproduire des mesures de neutrons retardés du 238U, à l’aide d’une cible préexistante, dans une logique d’inter-comparaison par rapport à une campagne expérimentale menée en 2023.
Dans un troisième temps, le doctorant réalisera la mesure des rendements en neutrons retardés et des abondances par groupe du 239Pu, sur une gamme d’énergie de neutrons comprise entre 1 et 8 MeV. In fine, il produira une évaluation dépendante de l’énergie et l’intégrera dans un fichier ENDF pour être testée sur différents calculs de réacteur (beta-eff, transitoires de puissance, calibration d’efficacité d’absorbants…). Ces mesures complèteront une étude en spectre thermique menée à l’ILL en 2022 dans le but de former un modèle cohérent pour le 239Pu sur une gamme d’énergie de 0 à 8 MeV.
Ce projet contribuera au fichier de données nucléaires JEFF-4 de l’OCDE/AEN. Il répond à une forte demande de l’industrie nucléaire (soulignée par l’AIEA) pour améliorer la précision des mesures de multiplicité et des paramètres cinétiques des neutrons retardés, contribuant ainsi à une meilleure maîtrise de la sûreté des réacteurs nucléaires ainsi qu’à la réduction des marges de sûreté.

IA générative pour la quantification robuste des incertitudes dans les problèmes inverses en astrophysiques

Contexte
Les problèmes inverses, c'est-à-dire l'estimation des signaux sous-jacents à partir d'observations corrompues, sont omniprésents en astrophysique, et notre capacité à les résoudre avec précision est essentielle à l'interprétation scientifique des données. Parmi les exemples de ces problèmes, on peut citer l'inférence de la distribution de la matière noire dans l'Univers à partir des effets de lentille gravitationnelle [1], ou la séparation des composantes dans l'imagerie radio-interférométrique [2].

Grâce aux récents progrès de l'apprentissage profond, et en particulier aux techniques de modélisation générative profonde (par exemple les modèles de diffusion), il est désormais possible non seulement d'obtenir une estimation de la solution de ces problèmes inverses, mais aussi d'effectuer une quantification de l'incertitude en estimant la distribution de probabilité a posteriori Bayésienne du problème, c'est-à-dire en ayant accès à toutes les solutions possibles qui seraient permises par les données, mais aussi plausibles en fonction des connaissances antérieures.

Notre équipe a notamment été pionnière dans l'élaboration de méthodes bayésiennes combinant notre connaissance de la physique du problème, sous la forme d'un terme de vraisemblance explicite, avec des à prioris basées sur les données et mises en œuvre sous la forme de modèles génératifs. Cette approche contrainte par la physique garantit que les solutions restent compatibles avec les données et évite les « hallucinations » qui affectent généralement la plupart des applications génératives de l'IA.

Cependant, malgré les progrès remarquables réalisés au cours des dernières années, plusieurs défis subsistent dans le cadre évoqué ci-dessus, et plus particulièrement :

[Données à priori imparfaites ou avec une distribution décalée] La construction de données à priori nécessite généralement l'accès à des exemples de données non corrompues qui, dans de nombreux cas, n'existent pas (par exemple, toutes les images astronomiques sont observées avec du bruit et une certaine quantité de flou), ou qui peuvent exister mais dont la distribution peut être décalée par rapport aux problèmes auxquels nous voudrions appliquer ce distribution à priori.
Ce décalage peut fausser les estimations et conduire à des conclusions scientifiques erronées. Par conséquent, l'adaptation, ou l'étalonnage, des antécédents basés sur les données à partir d'observations incomplètes et bruyantes devient cruciale pour travailler avec des données réelles dans les applications astrophysiques.

[Échantillonnage efficace de distributions a posteriori à haute dimension] Même si la vraisemblance et l'à priori basé par les données sont disponibles, l'échantillonnage correct et efficace de distributions de probabilités multimodales non convexes dans des dimensions si élevées reste un problème difficile. Les méthodes les plus efficaces à ce jour reposent sur des modèles de diffusion, mais elles s'appuient sur des approximations et peuvent être coûteuses au moment de l'inférence pour obtenir des estimations précises des distributions a posteriori souhaités.

Les exigences strictes des applications scientifiques sont un moteur puissant pour l'amélioration des méthodologies, mais au-delà du contexte scientifique astrophysique qui motive cette recherche, ces outils trouvent également une large application dans de nombreux autres domaines, y compris les images médicales [3].

Projet de doctorat
Le candidat visera à répondre à ces limitations des méthodologies actuelles, avec l'objectif global de rendre la quantification de l'incertitude pour les problèmes inverses à grande échelle plus rapide et plus précise.
Comme première direction de recherche, nous étendrons une méthodologie récente développée simultanément par notre équipe et nos collaborateurs de Ciela [4,5], basée sur l'algorithme d'espérance-maximisation, afin d'apprendre itérativement (ou d'adapter) des distributions à priori basés sur des méthodes de diffusion à des données observées sous un certain degré de corruption. Cette stratégie s'est avérée efficace pour corriger les décalages de la distribution á priori (et donc pour obtenir des distributions à posteriori bien calibrés). Cependant, cette approche reste coûteuse car elle nécessite la résolution itérative de problèmes inverses et le réentraînement des modèles de diffusion, et dépend fortement de la qualité du solveur de problèmes inverses. Nous explorerons plusieurs stratégies, notamment l'inférence variationnelle et les stratégies améliorées d'échantillonnage pour des problèmes inverses, afin de résoudre ces difficultés.
Dans une deuxième direction (mais connexe), nous nous concentrerons sur le développement de méthodologies générales pour l'échantillonnage de postérieurs complexes (géométries multimodales/complexes) de problèmes inverses non linéaires. En particulier, nous étudierons des stratégies basées sur le recuit (annealing) de la distribution à posteriori, inspirées de l'échantillonnage de modèles de diffusion, applicables dans des situations avec des vraisemblances et des distributions à priori explicites.
Finalement, nous appliquerons ces méthodologies à des problèmes inverses difficiles et à fort impact en astrophysique, en particulier en collaboration avec nos collègues de l'institut Ciela, nous viserons à améliorer la reconstruction des sources et des lentilles des systèmes de lentilles gravitationnelles fortes.
Des publications dans les meilleures conférences sur l'apprentissage automatique sont attendues (NeurIPS, ICML), ainsi que des publications sur les applications de ces méthodologies dans des revues d'astrophysique.

Références
[1] Benjamin Remy, Francois Lanusse, Niall Jeffrey, Jia Liu, Jean-Luc Starck, Ken Osato, Tim Schrabback, Probabilistic Mass Mapping with Neural Score Estimation, https://www.aanda.org/articles/aa/abs/2023/04/aa43054-22/aa43054-22.html

[2] Tobías I Liaudat, Matthijs Mars, Matthew A Price, Marcelo Pereyra, Marta M Betcke, Jason D McEwen, Scalable Bayesian uncertainty quantification with data-driven priors for radio interferometric imaging, RAS Techniques and Instruments, Volume 3, Issue 1, January 2024, Pages 505–534, https://doi.org/10.1093/rasti/rzae030

[3] Zaccharie Ramzi, Benjamin Remy, Francois Lanusse, Jean-Luc Starck, Philippe Ciuciu, Denoising Score-Matching for Uncertainty Quantification in Inverse Problems, https://arxiv.org/abs/2011.08698

[4] François Rozet, Gérôme Andry, François Lanusse, Gilles Louppe, Learning Diffusion Priors from Observations by Expectation Maximization, NeurIPS 2024, https://arxiv.org/abs/2405.13712

[5] Gabriel Missael Barco, Alexandre Adam, Connor Stone, Yashar Hezaveh, Laurence Perreault-Levasseur, Tackling the Problem of Distributional Shifts: Correcting Misspecified, High-Dimensional Data-Driven Priors for Inverse Problems, https://arxiv.org/abs/2407.17667

Radiothérapie avec électrons à très haute énergie issus d'un accélérateur de champ de sillage laser

Objectifs de la recherche :
Utiliser la modélisation numérique pour optimiser les propriétés des accélérateurs laser-plasma dans la gamme 50 MeV-200 MeV pour la radiothérapie VHEE :
(i) optimiser les propriétés d'un accélérateur laser-plasma (étalement de l'énergie, divergence) avec des faisceaux d'électrons injectés à partir d'un injecteur à miroir plasma en utilisant les codes WarpX et HiPACE++.
(ii) Étudier l'impact de ces faisceaux d'électrons sur l'ADN à l'aide de Geant4DNA.

Cette modélisation numérique sera ensuite utilisée pour guider/concevoir/interpréter des expériences de radiobiologie sur des échantillons biologiques in-vitro qui sont prévues dans notre installation laser interne de 100 TW au CEA pendant le projet. Ces expériences seront réalisées dans le cadre du projet de recherche FemtoDose financé par l'Agence Nationale de la Recherche.

Le chercheur bénéficiera d'une grande variété de formations disponibles au CEA sur le HPC et la programmation informatique, ainsi que de formations chez nos partenaires industriels (ARM, Eviden) et à l'Université Paris Saclay, qui propose des cours de maîtrise en radiobiologie et héberge également un centre de recherche (INanoTherad) dédié aux nouveaux traitements de radiothérapie, réunissant des physiciens, des radiobiologistes et des médecins. Les activités seront menées dans le cadre du réseau doctoral d'action Marie Sklodowska Curie EPACE (European compact accelerators, their applications, and entrepreneurship).

Capteur quantique-radiofréquence hybridé

A travers l’action exploratoire Carnot SpectroRF, le CEA Leti s’implique dans les systèmes de capteurs radiofréquences à base de spectroscopie optique atomique. L’idée sous-jacente de ce développement repose sur le fait que ces systèmes offrent des performances de détection exceptionnelles. Avec notamment, une sensibilité´ élevée (~nV.cm-1.Hz-0.5), des bandes passantes très larges (MHz- THz), une taille indépendante de la longueur d'onde (~cm) et une absence de couplage avec l'environnement. Ces avantages surpassent les capacités des récepteurs conventionnels a` base d'antennes pour la détection des signaux RF.
L'objectif de cette thèse est d'investiguer une approche hybride pour la réception de signaux radiofréquences, en combinant une mesure de spectroscopie atomique basée sur des atomes de Rydberg avec la conception d'un environnement proche à base de métal et/ou de matériau chargé pour la mise en forme et l'amplification locale du champ, que ce soit par l'utilisation de structures résonantes ou non, ou de structures focalisantes.
Dans le cadre de ces travaux, la question scientifique principale consiste à déterminer les opportunités et limites de ce type d’approche en formulant analytiquement les limites de champs imposables aux atomes de Rydberg, que ce soit en valeur absolue, en fréquence ou dans l’espace, et cela pour une structure donnée. L’approche analytique sera agrémentée de simulations EM pour la conception et la modélisation de la structure associée au banc de spectroscopie optique atomique. La caractérisation finale se fera par mesure dans un environnement électromagnétique contrôlé (chambre anéchoïque).
Les résultats obtenus permettront d'effectuer une comparaison modèle-mesures. Les modélisations analytiques ainsi que les limites théoriques qui en découlent donneront lieu à des publications sur des sujets qui n’ont pas encore fait l'objet d'investigations dans l’état de l’art. Les structures développées dans le cadre de ces travaux de thèse pourront faire l'objet de brevets directement valorisables par le CEA.

Top