Matériaux ALD pour les capacitances ferroélectriques FE et antiferroelectriques AFE

Les matériaux HfO2 ultrafins sont des candidats prometteurs pour les mémoires non volatiles embarquées (eNVM) et les dispositifs logiques. Le CEA-LETI occupe une position de leader dans le domaine des mémoires BEOL-FeRAM ultra-basse consommation (<100fj/bit) à basse tension (<1V). Les développements envisagés dans cette thèse visent à évaluer l'impact des couches ferroélectriques FE et antiferroélectriques AFE à base de HfO2 (10 à 4 nm fabriquées par dépôt de couches atomiques ALD) sur les propriétés et les performances des FeRAM.
En particulier, le sujet se propose d’apporter une compréhension approfondie des phases cristallographiques régissant les propriétés FE/AFE en utilisant des techniques de mesures avancées offertes par la plateforme de nano-caractérisation du CEA-LETI (analyses physico-chimiques, structurales et microscopiques, mesures électriques). Plusieurs solutions d'intégration pour les capacités ferroélectriques FeCAPs utilisant des couches ALD FE/AFE seront étudiées, notamment le dopage, les couches d'interface, la fabrication séquentielle avec ou sans air break…
Les capacitances FeCAPs, dont l’empilement de base est exclusivement fabriqué par ALD, seront exploitées pour explorer les points suivants :
1-Incorporation de dopage dans les couches FE/AFE (La, Y…)
2-Ingénierie de l'interface entre les couches FE/AFE et l'électrode supérieure/inférieure
3-Traitement plasma in situ de la surface de l'électrode inférieure
4-Dépôt séquentiel avec et sans air break

[1] S. Martin et al. – IEDM 2024
[2] Appl. Phys. Lett. 124, 243508 (2024)

Modélisation thermo-chemo-mécanique du frittage : effet de l’atmosphère et de la densification différentielle sur le retrait des pastilles

Les combustibles de dioxyde d’uranium (UO2), utilisés dans les centrales nucléaires sont des céramiques, dont le frittage en phase solide est une étape-clé de la fabrication. L’étape de frittage consiste en un traitement thermique sous pression partielle contrôlée de O2 permettant de consolider, densifier le matériau et faire grossir les grains de UO2. La densification induit un retrait macroscopique de la pastille. Si le compact (poudre comprimée par pressage avant le frittage) admet de fortes hétérogénéités de densité, une différence de densification dans la pastille peut avoir lieu entraînant un retrait différentiel et l’apparition de défauts.
Cette thèse se consacre à la mise en place d’un modèle thermo-chemo-mécanique du frittage pour simuler l’impact de la composition et les propriétés physiques de l’atmosphère sur la densification du combustible à l’échelle de la pastille. Cette échelle nous permettra de considérer les gradients de densité issus du pressage, mais également de prendre en compte la cinétique de diffusion d’oxygène impactant localement la vitesse de densification qui elle-même impactera le processus de transport. Une simulation multiphysique est nécessaire pour simuler le couplage de ces phénomènes.
Ce travail de thèse sera mené au sein du Laboratoire commun MISTRAL (Aix-Marseille Université/CNRS/Centrale Marseille et l'institut IRESNE du CEA-Cadarache). Le doctorant valorisera ses résultats au travers de publications et participations à des congrès et aura acquis de solides compétences qui sont recherchées et valorisables dans un grand nombre de domaines académiques et industriels.

Reconstruction numérique d’une cuve industrielle pour l’amélioration de l'instrumentation de suivi en temps réel

Dans un contexte de digitalisation de l’industrie et de surveillance en temps réel, il peut être crucial d’avoir accès en temps réel à des champs 3D (vitesse, viscosité, turbulence, concentration…), les réseaux de capteurs locaux étant parfois insuffisants pour avoir une bonne vision de ce qui se passe au sein du système. Ce sujet de thèse se propose d’investiguer une méthodologie adaptée à la reconstruction en temps réel de champs au sein d’une cuve industrielle instrumentée. Pour cela il est envisagé de se baser sur une modélisation éléments finis de la physique d’intérêt au sein de la cuve (fluidique, thermique…), et de méthodes de réduction de modèles basés sur le Machine Learning informé par la physique (approche capteurs virtuels). Le cœur de cette thèse sera également la mise au point de l’instrumentation d’une cuve et de la chaine d’acquisition associée, d’une part pour la validation des modèles, et d’autre part pour la génération d’une base de données pour l’application de la méthodologie.

PREDICTION PAR LA SIMULATION DES VIBRATIONS DANS LES CENTRIFUGUESES

Les machines tournantes sont des équipements critiques dans de nombreuses installations industrielles et leur exploitation s’accompagne régulièrement de problèmes d’équilibrage qui occasionnent l’apparition de vibrations potentiellement dangereuses pour les opérateurs et les équipements. La décanteuse pendulaire centrifuge est parfois le siège de vibrations qui obligent l’exploitant à ralentir la cadence de production. L’environnement nucléaire dans lequel ces équipements sont exploités ne permet pas de réaliser les mesures et observations nécessaires à une étude purement expérimentale. L’objectif est donc de réaliser une modélisation à partir de données limitées afin d’amener à une compréhension fine des phénomènes en jeu. Le sujet de thèse se propose de coupler des simulations CFD de type Euler-Euler de la répartition de masse dans le bol tournant avec une modélisation masse-ressort des liaisons mécaniques afin de s’approcher des signaux vibratoires mesurés industriellement. Un tel outil numérique serait une aide précieuse pour explorer les diverses pistes, sources potentielle d’apparition d’un déséquilibre de masse, et cela sans avoir à passer par une reproduction expérimentale. Associé à des méthodes de deep learning, ce type de modèle permettrait aussi de bâtir un prédicteur de balourds à partir de courts signaux vibratoires ouvrant la porte à un pilotage actif de la décanteuse.

Conception et optimisation d'un concept innovant de couverture tritigène pour réacteur à fusion nucléaire compact à haut flux de chaleur

Compétences :
Techniques : thermique, mécanique des structures, hydraulique, matériaux, simulation numérique
Non technique : rédaction, relationnel, anglais

Prérequis :
Cette thèse sera précédée d’un stage de 6 mois. Contacter l’encadrant pour découvrir le sujet.

Contexte :
Cette thèse porte sur la conception et l'optimisation d'une couverture tritigène innovante pour les réacteurs de fusion nucléaire compacts. La fusion nucléaire offre une solution prometteuse pour produire une énergie propre et durable. Cependant, elle nécessite la production continue de tritium, un isotope rare, à partir de couvertures tritigènes entourant le plasma. Ces couvertures doivent également extraire la chaleur générée. Dans les réacteurs compacts, les contraintes techniques sont accrues par des flux de chaleur et des sollicitations thermiques et neutroniques très élevés.

La thèse se déroulera au sein du Bureau de Conceptions, Calculs et Réalisations du CEA Saclay, un acteur reconnu concernant le développement de couvertures tritigènes à l’échelle européenne. Ce bureau a conçu plusieurs concepts, tels que le HCLL (Helium Cooled Lithium Lead) et le BCMS (Breeder and Coolant Molten Salt), deux types de couvertures basées sur des systèmes de refroidissement à l'hélium ou aux sels fondus.

Description de la thèse :
Le programme de recherche se déroulera sur trois ans. La première année sera dédiée à l'étude des couvertures existantes, à l'identification des contraintes des réacteurs compacts, à la sélection de matériaux et fluides caloporteurs adaptés, et à la conception préliminaire du modèle. Les années suivantes seront consacrées à la modélisation multiphysique (thermique, mécanique, neutronique), suivie de l'optimisation itérative du concept pour améliorer ses performances.

Perspectives :
Les résultats de cette thèse auront un impact significatif sur le développement des réacteurs de fusion compacts, en garantissant la production de tritium et l’intégrité des structures. Ce travail pourrait également ouvrir des perspectives pour des recherches futures sur des couvertures tritigènes encore plus avancées, contribuant à l'essor d'une énergie de fusion durable et commercialement viable.

Analyse en ligne de simulants d'actinides en solution par LIBS et IA pour les procédés de retraitement du combustible

La construction de nouveaux réacteurs nucléaires dans les années à venir implique une augmentation des capacités de retraitement du combustible. Cette évolution requiert des développements scientifiques et technologiques pour mettre à jour notamment les équipements de surveillance du procédé. L’un des paramètres à suivre en continu est la teneur en actinides en solution, donnée essentielle au pilotage du procédé, actuellement mesurée par des technologies obsolètes. On se propose donc de développer la LIBS (laser-induced breakdown spectroscopy) pour cette application, une technique bien adaptée à l’analyse élémentaire quantitative en ligne. Les spectres des actinides étant particulièrement complexes, on souhaite recourir à des approches multivariées de traitement des données, comme certaines techniques d’intelligence artificielle (IA), pour extraire l’information quantitative des données LIBS et caractériser l’incertitude de mesure.
L’objectif de la thèse est donc d’évaluer les performances de l’analyse en ligne d’actinides en solution par LIBS et IA. On visera en particulier à améliorer la caractérisation des incertitudes à travers des méthodes de machine learning, et à les minimiser fortement pour répondre aux besoins de surveillance de l’usine de retraitement du futur.
Le travail expérimental sera réalisé sur des simulants non radioactifs des actinides, et au moyen d’un équipement LIBS commercial. Les données spectroscopiques alimenteront le volet de la thèse sur le traitement des données, et sur la détermination de l’incertitude obtenue par différents modèles de quantification.
Les résultats obtenus permettront de publier au moins 2 à 3 articles dans des revues à comité de lecture, voire de déposer des brevets. Les perspectives de la thèse sont la montée en maturité de la méthode et de l’instrumentation, pour aller progressivement vers une mise en œuvre sur une installation représentative d’un procédé de retraitement.

Compréhension et modélisation des mécanismes de découpe laser pour le démantèlement

Depuis plus de 30 ans, le Laboratoire des Technologies d'Assemblage (LTA) du CEA Saclay mène des recherches pour développer des outils innovants pour le démantèlement des installations nucléaires, en mettant au point des procédés de découpe laser adaptés à des environnements hostiles. Cette technologie permet de découper des matériaux épais, en air ou sous l’eau, et s’est révélée particulièrement efficace pour le démantèlement grâce à sa précision et à sa capacité à limiter la génération d’aérosols. Aujourd’hui, cette technologie est considérée comme sûre et éprouvée, notamment grâce au projet européen "LD-SAFE".
Cependant, des verrous techniques persistent, notamment la gestion de l’énergie laser résiduelle qui, en se propageant au-delà de la pièce découpée, peut endommager les structures environnantes. Des premiers travaux, parmi lesquels une thèse, ont permis de développer des modèles numériques pour prédire et maîtriser cette énergie, apportant des avancées significatives. En revanche, des défis technologiques demeurent, comme la gestion des fortes épaisseurs (>10 mm), la découpe de multi-plaques ou encore la prise en compte de l’ajout d’oxygène pour améliorer l'efficacité de la découpe.
L'objectif de la thèse sera de faire face à ces défis afin de mieux comprendre le procédé de découpe laser et la propagation de l'énergie laser résiduelle. Le doctorant perfectionnera un modèle numérique pour prédire son impact sur les structures en arrière-plan, notamment pour des matériaux épais et des configurations multi-plaques. Le travail inclura le développement d'un modèle multiphysique, validé par des expériences, avec un focus particulier sur l'effet de l'oxygène, la création de modèles simples et l'adaptation pour une utilisation par des opérateurs externes.
La thèse sera réalisée en collaboration entre le Laboratoire des Technologies d’Assemblage (LTA) du CEA Saclay et l’Institut de Recherche Dupuy de Lôme (IRDL - UMR CNRS 6027) de l’Université de Bretagne-Sud (Lorient).

Magnétorésistances géantes pour la caractérisation locale de l’état magnétique de surface: vers des applications du type Contrôle Non-Destructif (CND)

Thèse Cifre dans le domaine du contrôle non destructif par utilisation de capteurs magnétiques en collaboration entre 3 partenaires :

-le Laboratoire de Nanomagnétisme et Oxyde (LNO) du CEA Paris-Saclay
-le Laboratoire de Génie Electrique et Ferroélectricité (LGEF) de l’INSA Lyon
-l’entreprise CmPhy

La grande majorité des aciers de structure et de construction utilisés par l’industrie du transport, de l’énergie et du bâtiment sont ferromagnétiques. Ces aciers possèdent la propriété de s’aimanter sous l’effet d’un champ externe et de conserver un état magnétique lors de sa disparition.

Les propriétés mécaniques et la microstructure sont des marqueurs forts qui permettent d’anticiper l’état de dégradation de ces pièces en acier. Ces informations qui sont fondamentales en production comme en maintenance peuvent être lues de façon indirecte et non-destructive à travers l’observation du comportement magnétique.

Dans cette thèse, nous proposons de développer des capteurs magnétiques de type magnétorésistance géante (GMR) pour remonter à l’état magnétique de surface et indirectement aux contraintes résiduelles, à la microstructure et au niveau de dégradation.
L’utilisation de l’effet de magnétorésistance géante (GMR), basé sur l’électronique de spin permet de développer des capteurs magnétiques innovants, extrêmement sensibles, détectant des champs magnétiques de l’ordre du nT/vHz. Leur taille peut être submicronique ce qui les rends complètements adaptés à la caractérisation de surface. Leur sensibilité est telle que l’effet du champ magnétique terrestre est suffisant pour induire une réponse magnétique mesurable. Ceci permet d’envisager un CND magnétique allégé ne nécessitant pas d’inducteur pour la génération du champ.

Les deux applications principales associées à cette thèse seront:

• Détection de défauts surfaciques ou sous surfaciques (de l’ordre du mm).
• Détecter des variations micro structurelles locales, des contraintes surfaciques ou des déformations plastiques.

Plusieurs aspects pourront être traités pendant la thèse. Une partie intégration dont le but est d’aller jusqu’à la mise au point d’un démonstrateur (un intérêt pour ce démonstrateur a déjà été signifié par de grands groupes industriels tel que Framatome, EDF, DGA, SAFRAN, etc.). Des mesures sur des échantillons tests et en conditions réelles seront en amont réalisées pour valider la technique. En parallèle, un outil de modélisation pour l’analyse des signaux sera développé afin de comprendre et interpréter les résultats.

La Financement CIFRE proposé repose sur la collaboration de 2 laboratoires académiques (le Laboratoire de Nanomagnétisme et Oxyde (LNO) du CEA Paris-Saclay, spécialiste des capteurs magnétiques et le Laboratoire de Génie Electrique et Ferroélectricité (LGEF) de l’INSA Lyon, spécialiste des matériaux magnétiques et de leur applications) et une entreprise CmPhy, qui conçoit et fabrique des équipements d'analyses et de contrôles CND ainsi que des bancs de caractérisation magnétiques.

Mesure et évaluation de la dépendance énergétique des données de neutrons retardés du 239Pu

Cette proposition de thèse vise à mesurer et à caractériser l’émission des neutrons retardés émis par la fission du 239Pu. Cet actinide est impliqué dans divers concepts de réacteurs et la connaissance des données nucléaires qui le caractérisent reste actuellement insuffisante, en particulier en spectre rapide. Ce projet comprend une forte composante expérimentale, avec plusieurs campagnes de mesures sur l'accélérateur électrostatique MONNET au JRC Geel, auxquelles le doctorant prendra activement part.
La première étape de cette thèse consistera à intercomparer les méthodes de mesure du flux neutronique (dosimétrie, chambre à fission, détecteur long-counter et scintillateur à protons de recul) puis de les confronter à des calculs Monte-Carlo simulant l’émission des neutrons par interaction de particules chargées (D+T, D+D, p+T). Ce travail permettra d’assurer la bonne caractérisation du flux neutronique, une étape essentielle pour la suite du projet.
Dans un second temps, le doctorant devra reproduire des mesures de neutrons retardés du 238U, à l’aide d’une cible préexistante, dans une logique d’inter-comparaison par rapport à une campagne expérimentale menée en 2023.
Dans un troisième temps, le doctorant réalisera la mesure des rendements en neutrons retardés et des abondances par groupe du 239Pu, sur une gamme d’énergie de neutrons comprise entre 1 et 8 MeV. In fine, il produira une évaluation dépendante de l’énergie et l’intégrera dans un fichier ENDF pour être testée sur différents calculs de réacteur (beta-eff, transitoires de puissance, calibration d’efficacité d’absorbants…). Ces mesures complèteront une étude en spectre thermique menée à l’ILL en 2022 dans le but de former un modèle cohérent pour le 239Pu sur une gamme d’énergie de 0 à 8 MeV.
Ce projet contribuera au fichier de données nucléaires JEFF-4 de l’OCDE/AEN. Il répond à une forte demande de l’industrie nucléaire (soulignée par l’AIEA) pour améliorer la précision des mesures de multiplicité et des paramètres cinétiques des neutrons retardés, contribuant ainsi à une meilleure maîtrise de la sûreté des réacteurs nucléaires ainsi qu’à la réduction des marges de sûreté.

IA générative pour la quantification robuste des incertitudes dans les problèmes inverses en astrophysiques

Contexte
Les problèmes inverses, c'est-à-dire l'estimation des signaux sous-jacents à partir d'observations corrompues, sont omniprésents en astrophysique, et notre capacité à les résoudre avec précision est essentielle à l'interprétation scientifique des données. Parmi les exemples de ces problèmes, on peut citer l'inférence de la distribution de la matière noire dans l'Univers à partir des effets de lentille gravitationnelle [1], ou la séparation des composantes dans l'imagerie radio-interférométrique [2].

Grâce aux récents progrès de l'apprentissage profond, et en particulier aux techniques de modélisation générative profonde (par exemple les modèles de diffusion), il est désormais possible non seulement d'obtenir une estimation de la solution de ces problèmes inverses, mais aussi d'effectuer une quantification de l'incertitude en estimant la distribution de probabilité a posteriori Bayésienne du problème, c'est-à-dire en ayant accès à toutes les solutions possibles qui seraient permises par les données, mais aussi plausibles en fonction des connaissances antérieures.

Notre équipe a notamment été pionnière dans l'élaboration de méthodes bayésiennes combinant notre connaissance de la physique du problème, sous la forme d'un terme de vraisemblance explicite, avec des à prioris basées sur les données et mises en œuvre sous la forme de modèles génératifs. Cette approche contrainte par la physique garantit que les solutions restent compatibles avec les données et évite les « hallucinations » qui affectent généralement la plupart des applications génératives de l'IA.

Cependant, malgré les progrès remarquables réalisés au cours des dernières années, plusieurs défis subsistent dans le cadre évoqué ci-dessus, et plus particulièrement :

[Données à priori imparfaites ou avec une distribution décalée] La construction de données à priori nécessite généralement l'accès à des exemples de données non corrompues qui, dans de nombreux cas, n'existent pas (par exemple, toutes les images astronomiques sont observées avec du bruit et une certaine quantité de flou), ou qui peuvent exister mais dont la distribution peut être décalée par rapport aux problèmes auxquels nous voudrions appliquer ce distribution à priori.
Ce décalage peut fausser les estimations et conduire à des conclusions scientifiques erronées. Par conséquent, l'adaptation, ou l'étalonnage, des antécédents basés sur les données à partir d'observations incomplètes et bruyantes devient cruciale pour travailler avec des données réelles dans les applications astrophysiques.

[Échantillonnage efficace de distributions a posteriori à haute dimension] Même si la vraisemblance et l'à priori basé par les données sont disponibles, l'échantillonnage correct et efficace de distributions de probabilités multimodales non convexes dans des dimensions si élevées reste un problème difficile. Les méthodes les plus efficaces à ce jour reposent sur des modèles de diffusion, mais elles s'appuient sur des approximations et peuvent être coûteuses au moment de l'inférence pour obtenir des estimations précises des distributions a posteriori souhaités.

Les exigences strictes des applications scientifiques sont un moteur puissant pour l'amélioration des méthodologies, mais au-delà du contexte scientifique astrophysique qui motive cette recherche, ces outils trouvent également une large application dans de nombreux autres domaines, y compris les images médicales [3].

Projet de doctorat
Le candidat visera à répondre à ces limitations des méthodologies actuelles, avec l'objectif global de rendre la quantification de l'incertitude pour les problèmes inverses à grande échelle plus rapide et plus précise.
Comme première direction de recherche, nous étendrons une méthodologie récente développée simultanément par notre équipe et nos collaborateurs de Ciela [4,5], basée sur l'algorithme d'espérance-maximisation, afin d'apprendre itérativement (ou d'adapter) des distributions à priori basés sur des méthodes de diffusion à des données observées sous un certain degré de corruption. Cette stratégie s'est avérée efficace pour corriger les décalages de la distribution á priori (et donc pour obtenir des distributions à posteriori bien calibrés). Cependant, cette approche reste coûteuse car elle nécessite la résolution itérative de problèmes inverses et le réentraînement des modèles de diffusion, et dépend fortement de la qualité du solveur de problèmes inverses. Nous explorerons plusieurs stratégies, notamment l'inférence variationnelle et les stratégies améliorées d'échantillonnage pour des problèmes inverses, afin de résoudre ces difficultés.
Dans une deuxième direction (mais connexe), nous nous concentrerons sur le développement de méthodologies générales pour l'échantillonnage de postérieurs complexes (géométries multimodales/complexes) de problèmes inverses non linéaires. En particulier, nous étudierons des stratégies basées sur le recuit (annealing) de la distribution à posteriori, inspirées de l'échantillonnage de modèles de diffusion, applicables dans des situations avec des vraisemblances et des distributions à priori explicites.
Finalement, nous appliquerons ces méthodologies à des problèmes inverses difficiles et à fort impact en astrophysique, en particulier en collaboration avec nos collègues de l'institut Ciela, nous viserons à améliorer la reconstruction des sources et des lentilles des systèmes de lentilles gravitationnelles fortes.
Des publications dans les meilleures conférences sur l'apprentissage automatique sont attendues (NeurIPS, ICML), ainsi que des publications sur les applications de ces méthodologies dans des revues d'astrophysique.

Références
[1] Benjamin Remy, Francois Lanusse, Niall Jeffrey, Jia Liu, Jean-Luc Starck, Ken Osato, Tim Schrabback, Probabilistic Mass Mapping with Neural Score Estimation, https://www.aanda.org/articles/aa/abs/2023/04/aa43054-22/aa43054-22.html

[2] Tobías I Liaudat, Matthijs Mars, Matthew A Price, Marcelo Pereyra, Marta M Betcke, Jason D McEwen, Scalable Bayesian uncertainty quantification with data-driven priors for radio interferometric imaging, RAS Techniques and Instruments, Volume 3, Issue 1, January 2024, Pages 505–534, https://doi.org/10.1093/rasti/rzae030

[3] Zaccharie Ramzi, Benjamin Remy, Francois Lanusse, Jean-Luc Starck, Philippe Ciuciu, Denoising Score-Matching for Uncertainty Quantification in Inverse Problems, https://arxiv.org/abs/2011.08698

[4] François Rozet, Gérôme Andry, François Lanusse, Gilles Louppe, Learning Diffusion Priors from Observations by Expectation Maximization, NeurIPS 2024, https://arxiv.org/abs/2405.13712

[5] Gabriel Missael Barco, Alexandre Adam, Connor Stone, Yashar Hezaveh, Laurence Perreault-Levasseur, Tackling the Problem of Distributional Shifts: Correcting Misspecified, High-Dimensional Data-Driven Priors for Inverse Problems, https://arxiv.org/abs/2407.17667

Top