Nouvelles contraintes expérimentales sur les constantes de couplage de l’interaction faible par la mesure en coïncidence de schémas de désintégration complexes
La caractérisation expérimentale précise des transitions bêta interdites non-uniques, représentant environ un tiers de toutes les transitions bêta connues, est un sujet à la fois important et très ardu. De fait, très peu d’études fiables existent dans la littérature. En effet, le spectre en énergie continu de ces transitions est difficile à mesurer précisément pour diverses raisons qui se cumulent les unes aux autres : grande diffusivité des électrons dans la matière et non-linéarité du système de détection, indisponibilité de certains radionucléides et présence d’impuretés, longues périodes de désintégration et complexité des schémas, etc. Des prédictions théoriques réalistes sont tout aussi difficiles car il est nécessaire de coupler des modélisations précises des structures atomiques et nucléaires des radionucléides à travers l’interaction faible, dans un même formalisme complètement relativiste. Pourtant, améliorer notre connaissance des transitions bêta interdites non-uniques est essentiel en métrologie de la radioactivité pour définir l’unité SI du becquerel dans le cas des émetteurs bêta purs. Cela peut avoir un impact fort en médecine nucléaire, pour l’industrie du nucléaire, et pour certaines thématiques de physique fondamentale, comme la recherche de matière noire et la physique des neutrinos de réacteurs.
Notre étude récente de la transition deuxième interdite non-unique du 99Tc, à la fois théorique et expérimentale, a mis en évidence que les transitions interdites non-uniques peuvent être particulièrement sensibles à la valeur effective des constantes de couplage de l’interaction faible. Ces dernières interviennent comme facteurs multiplicatifs des éléments de matrice nucléaires. L’utilisation de valeurs effectives permet de compenser les approximations employées dans les modèles de structure, telles que des corrélations simplifiées entre les nucléons dans l’espace de valence ou l’absence d’excitation du cœur. Cependant, leur ajustement ne peut se faire que par comparaison avec un spectre expérimental de grande précision. La prédictibilité des calculs théoriques, même les plus précis actuellement disponibles, est ainsi fortement remise en cause. S’il a déjà été démontré que des valeurs universelles ne peuvent être fixées, des valeurs pour chaque type de transition, ou pour un modèle nucléaire spécifique, sont possibles. Le but de ce sujet de thèse est donc d’établir de nouvelles contraintes expérimentales sur les constantes de couplage de l’interaction faible en mesurant précisément les spectres en énergie de transitions bêta. À terme, cela permettra d’établir des valeurs effectives moyennes robustes de ces constantes de couplage et d’obtenir un vrai pouvoir prédictif pour les calculs théoriques de désintégration bêta.
La plupart des transitions d’intérêt pour contraindre les constantes de couplage ont des énergies supérieures à 1 MeV et se situent au sein de schémas de désintégration complexes, avec émission de multiples photons gamma. Dans cette situation, la meilleure stratégie consiste en une détection bêta-gamma en coïncidence. Les techniques usuelles de détection en physique nucléaire sont appropriées mais nécessitent d’être extrêmement bien implémentées et contrôlées. Le doctorant pourra s’appuyer sur les résultats obtenus lors de deux thèses précédentes. Pour minimiser le phénomène d’auto-absorption des électrons dans la source, il devra améliorer une technique de préparation de sources radioactives ultra-minces développée au LNHB pour l’adapter aux activités importantes qui seront nécessaires. Il devra implémenter un nouveau dispositif de mesure, dans une chambre à vide dédiée, comprenant une détection en coïncidence de deux détecteurs silicium et deux détecteurs gamma. Plusieurs études seront nécessaires, mécaniques et par simulation Monte Carlo, pour optimiser la configuration géométrique en regard des différentes contraintes. L’optimisation de la chaîne d’électronique, l’acquisition, le traitement du signal, l’analyse des données, la déconvolution spectrale et l’élaboration d’un bilan d’incertitudes complet et robuste seront autant de sujets abordés. Ces développements instrumentaux permettront de mesurer avec une grande précision les spectres du 36Cl, du 59Fe, du 87Rb, du 141Ce, ou encore du 170Tm.
Ce sujet très complet permettra au doctorant d’acquérir des compétences instrumentales et d’analyse qui lui ouvriront de nombreuses opportunités de carrière. Le candidat devra posséder de bonnes connaissances en instrumentation nucléaire, en programmation et en simulations Monte Carlo, ainsi qu’une connaissance raisonnable des désintégrations nucléaires.
Simulation quantique des noyaux atomiques
Les noyaux atomiques forment des systèmes quantiques à N corps fortement corrélés régis par l'interaction forte de la QCD. Le modèle en couches nucléaire, qui diagonalise le hamiltonien dans une base dont la dimension croît exponentiellement avec le nombre de nucléons, constitue une approche bien établie pour décrire leur structure. Cependant, cette explosion combinatoire limite les calculs classiques haute performance à une fraction restreinte de la carte des noyaux.
Les calculateurs quantiques offrent une alternative prometteuse grâce à leur capacité naturelle à manipuler des espaces de Hilbert exponentiellement grands. Bien que nous demeurions dans l'ère NISQ avec ses qubits bruités, ils pourraient révolutionner les applications du modèle en couches.
Cette thèse vise à développer une approche complète pour la simulation quantique des systèmes nucléaires complexes. Un premier jalon crucial consiste à créer une interface logicielle intégrant les données de structure nucléaire (orbitales nucléoniques, interactions nucléaires) aux plateformes de calcul quantique, facilitant ainsi les applications futures en physique nucléaire.
Le projet explore deux classes d'algorithmes : les approches variationnelles et non-variationnelles. Pour les premières, l'expressivité des ansätze quantiques sera analysée systématiquement, notamment dans le contexte de la brisure et de la restauration de symétries. Les solveurs quantiques variationnels (VQE), particulièrement prometteurs pour les systèmes hamiltoniens, seront implémentés avec un accent sur la technique ADAPT-VQE adaptée au problème à N corps nucléaire.
Un défi majeur réside dans l'accès aux états excités, aussi cruciaux que l'état fondamental en structure nucléaire, alors que les VQE se concentrent principalement sur ce dernier. La thèse développera donc des algorithmes quantiques dédiés aux états excités, en testant diverses méthodes : expansion de l'espace de Hilbert (Quantum Krylov), techniques de fonctions de réponse (équations du mouvement quantiques), et méthodes basées sur l'estimation de phase. L'objectif final est d'identifier les approches les plus adaptées en termes de passage à l'échelle et de résistance au bruit, pour des applications avec des hamiltoniens nucléaires réalistes.
Asymétries des impacts des électrons découplés dans les tokamaks : caractérisation et modélisation pour ITER
Les disruptions sont des interruptions brutales des décharges plasmas dans les tokamaks. Elles sont dues à des instabilités menant à la perte de l’énergie thermique et de l’énergie magnétique du plasma sur des laps de temps de l’ordre de quelques dizaines de millisecondes. Les disruptions peuvent générer des faisceaux d’électrons relativistes dits « découplés », portant une part importante de l’énergie initiale du plasma, et susceptibles d’endommager les composants face au plasma. Le sujet proposé se concentre sur la caractérisation et la modélisation des asymétries d’impact des électrons découplés sur les éléments de paroi. Même s’il est souhaitable d’empêcher leur formation ou de les supprimer, il est probable que des faisceaux d’électrons découplés soient générés pendant les disruptions des futurs tokamaks tels qu’ITER. Or la géométrie et les processus physiques à l’œuvre lors des impacts sont encore mal compris. En particulier, des asymétries dans la direction toroïdale ont été observées sur de nombreux tokamaks, concentrant le flux de chaleur avec des motifs reproductibles dans le temps et malgré des conditions expérimentales variées. Peu d’expériences contrôlées ont été réalisées pour étudier ces phénomènes. Il est donc proposé pour ce sujet de commencer par faire une revue statistique des données expérimentales récentes sur les tokamaks JET et WEST: surface de dépôt, facteurs de symétrie, flux de chaleur, caractérisation des éjectas. Des codes simples de propagation de la chaleur pourront être utilisés. Les caractéristiques des électrons découplés juste avant l’impact devront aussi faire partie de l’étude, en s’appuyant sur des mesures indirectes (spectres X-durs, mesures post-mortem) ou des codes interprétatifs. Dans un second temps, des simulations d’impact des faisceaux d’électrons seront réalisées, afin de tester les deux hypothèses principales permettant d’expliquer les asymétries : le désalignement des éléments de paroi, ou une structure intrinsèquement tridimensionnelle du faisceau, potentiellement créée par des champs d’erreur. Le code 3D MHD JOREK sera utilisé, en particulier pour la seconde hypothèse. Le but sera de tenter de reproduire les observations expérimentales. Enfin, une fois la bonne hypothèse validée et le modèle mis au point, les simulations seront étendues à ITER où les charges thermiques et asymétries de l’impact du faisceau seront calculées à partir de valeurs potentielles de désalignements et/ou de champs d’erreur.
L'instabilité de dérive non-résonnante dans les plasmas turbulents
La turbulence magnétique présente dans de nombreux systèmes astrophysiques tels que le vent solaire et les rémanents de supernova joue un rôle clé dans l'accélération de particules à haute énergie, notamment dans le contexte des ondes de choc non collisionnelles. En confinant certaines particules près du front de choc, elle leur permet de gagner de l'énergie par réflexions successives entre les milieux amont et aval, un mécanisme connu sous le nom de processus de Fermi et considéré comme étant à l'origine des rayons cosmiques.
La turbulence autour des rémanents de supernova est probablement déclenchée par les rayons cosmiques eux-mêmes, via des instabilités plasma lors de leur propagation en amont du choc. Dans le cas d'une onde de choc se déplaçant parallèlement au champ magnétique ambiant, l'instabilité dominante est celle de "dérive non-résonnante" - ou instabilité de Bell -, qui contribue à renforcer la turbulence préexistante.
L'objectif de cette thèse est de développer un modèle analytique complet de cette instabilité dans un plasma turbulent, puis d'en comparer les résultats à des simulations numériques avancées.
Description de phénomènes collectifs au sein des noyaux d’atome au-delà de l’approche de la fonctionnelle de la densité dépendant du temps
Contexte :
Prédire l'organisation et la dynamique des neutrons et protons au sein des noyaux d'atome est un véritable
défi scientifique, crucial pour concevoir les technologiques nucléaires du futur mais aussi pour répondre à
des questions fondamentales comme l'origine des atomes lourds dans notre univers. Dans ce cadre, le CEA,
DAM, DIF développe des approches théoriques visant à simuler la dynamique des constituants élémentaires
du noyau atomique. Les équations du mouvement obtenues, dans le cadre de la mécanique quantique, sont
résolues sur nos supercalculateurs. Les années 2010 ont vu une montée en puissance de l’approche dite de la
fonctionnelle de la densité dépendant du temps (TDDFT) pour traiter ce problème. Malgré sa description
révolutionnaire de certains phénomènes tels que les résonances géantes observées dans les noyaux d’atome
ou encore la fission nucléaire, cette approximation possède des limites intrinsèques.
Objectifs :
Cette thèse vise à développer et explorer une nouvelle approche théorique permettant de décrire les
phénomènes de mouvements collectifs des protons et neutrons au sein du noyau atomique. L’idée est de
généraliser l’approche TDDFT afin de mieux prédire certaines propriétés des réactions nucléaires comme la
répartition de l’énergie entre les fragments issus d’une fission nucléaire. Partant de premier travaux allant
dans cette direction, le/la doctorante devra dériver les équations du mouvement de cette nouvelle approche
puis les implémenter sous forme d’une librairie C++ optimisée et tirant profit des supercalculateurs du CEA.
Le but sera enfin d’étudier comment cette nouvelle approche améliore les prédictions de certains
phénomènes comme l’amortissement des résonances géantes dans les noyaux d’atomes ou encore la
naissance des fragments générés lors d’une fission nucléaire.
Description microscopique des propriétés des fragments de fission évaluées à la scission
La fission est l’une des réactions nucléaires les plus difficiles à décrire, reflétant la diversité des aspects dynamiques du problème à N-corps. Au cours de ce processus, le noyau explore des états de déformations extrêmes aboutissant à la formation de deux fragments. Alors que la nombre de degrés de liberté (DLC) mis en jeu est extrêmement grand, l’approximation de champ moyen est un bon point de départ qui opère une réduction drastique des DLC, l’élongation et l’asymétrie étant incontournables. Cette réduction introduit des discontinuités dans la génération successive des états par lesquels le noyau transite, la continuité en énergie n’assurant pas la continuité des états issus d’un principe variationnel. Récemment, une nouvelle méthode basée sur des contraintes associées aux recouvrements de fonctions d’onde, a été mise en oeuvre afin d’assurer cette continuité jusqu’à la scission et au-delà (vallée de Coulomb). Cette continuité est capitale pour décrire la dynamique du processus.
L’objectif de la thèse que nous proposons est de réaliser pour la première fois la mise en oeuvre à deux dimensions de cette nouvelle approche afin de prendre en compte l’ensemble de la collectivité générée par les DLC d’élongation et d’asymétrie. Les développements théoriques et numériques s’inscrivent dans le cadre de la méthode de la coordonnée génératice dépendant du temps. Ce type d’approche contient une première étape statique qui consiste en la génération de surfaces d’énergie potentielle (PES) obtenues par des calculs Hartree-Fock-Bogoliubov sous contraintes et une seconde étape dynamique qui décrit la propagation dynamique d’un paquet d’onde sur ces surfaces via la résolution de l’équation de Schrödinger dépendant du temps. C’est à partir de cette deuxième étape que les observables sont en général extraites.
Dans le cadre de cette thèse, le doctorant devra:
- en première étape, construire des PES à deux dimensions continues pour l’état adiabatique et les premiers états excités. Cela mettra en oeuvre les trois algorithmes Link, drop et Deflation
- en deuxième étape, extraire des observables accessibles par ce type d’approches: les rendements, le bilan énergétique à la scission, la déformation des fragments, le nombre moyen de neutrons émis. Nous souhaitons en particulier étudier l’impact des excitations intrinsèques sur les observables de fission, qui se manifestent essentiellement dans la descente du point scelle vers la scission.
Enfin, ces résulats seront confrontés aux données expérimentales, dans des actinides et des pré-actinides d’intérêt. Notamment, les mesures récentes très précises obtenues par les expériences SOFIA pour des noyaux peu à très exotiques devraient contribuer à tester la précision et la prédictivité de nos approches, et à guider les futurs développements des approches à N-corps et de l’interaction nucléaire dans le cadre de la fission.
Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable
Contexte
L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.
La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.
Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.
Projet de doctorat
Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.
Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.
Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.
Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.
La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.
Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.
Références
[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].
Validation de nouveaux schémas de calcul neutronique APOLLO3 des Réacteurs à Eau Légère à l’aide de simulations Monte Carlo multigroupes combinées à une approche perturbative
Le CEA développe depuis une douzaine d’années une plateforme de calcul neutronique déterministe multifilières, APOLLO3, qui commence à être utilisée pour des études de réacteur. Un schéma de calcul classique d’APOLLO3 en deux étapes repose sur une première étape de calculs d’assemblages en réseau infini à deux dimensions en transport fin générant des bibliothèques de sections efficaces multiparamétrées utilisées dans la deuxième étape de calcul de cœur 3D. Dans le cas d’un gros réacteur électrogène, le calcul de cœur nécessite des approximations qui peuvent être plus ou moins fortes suivant le type d’utilisation visée.
Les schémas de calcul de référence, type SHEM-MOC, et industriel, type REL2005, utilisés encore actuellement à l’étape réseau par le CEA et ses partenaires industriels, EDF et Framatome, ont été développés au milieu des années 2000 à partir des méthodes disponibles dans le code APOLLO2.8. Depuis, de nouveaux développements ont vu le jour dans le code APOLLO3 qui ont fait individuellement l’objet de travaux de vérification et validation démontrant leur capacité à améliorer la qualité des résultats à l’étape réseau. On peut citer, entre autre, les nouvelles méthodes d’autoprotection, sous-groupes et Tone, l’utilisation de sources linéaires surfaciques dans les calculs de flux en méthode des caractéristiques, la reconstruction de flux pour les calculs d’évolution isotopique, et nouveau maillage énergétique fin à 383 groupes.
L’objectif de cette thèse est de définir et valider deux nouveaux schémas de calculs réseau pour les applications REL qui intègrent tout ou partie de ces nouvelles méthodes, en visant des temps de calcul raisonnables pour le schéma de référence, et compatibles avec une utilisation en routine pour le schéma industriel (ces schémas ont vocation à être utilisés dans les futures chaînes de calculs du CEA et de ses partenaires). Les schémas de calcul mis en place seront validés à 2D sur des géométries issues de la suite de benchmarks VERA. La validation sera menée en suivant une approche innovante mettant en œuvre des calculs Monte Carlo à énergie continue ou multigroupes et une analyse perturbative des écarts.
Conception d’une expérience de validation du "crédit burnup" RNR dans le RJH
Le Réacteur nucléaire expérimental Jules Horowitz a pour mission première de répondre aux besoins d’irradiation de matériaux et combustibles pour l'industrie nucléaire actuelle et les générations ultérieures. Son démarrage est prévu autour de 2032. La conception des premières vagues de dispositifs expérimentaux du RJH est déjà très avancée, la priorité étant de répondre aux besoins industriels GEN2 et 3. En revanche, un champ reste ouvert à plus long terme, celui d’expériences indispensables à la filière GEN4, alors que l’on ne dispose pas de réacteur d’irradiation à spectre rapide.
L’objectif de la thèse est d’étudier la faisabilité d’expériences dans le RJH et d'autres réacteurs à eau, à des fins de validation de la perte de réactivité de combustibles RNR innovants.
La première partie du travail consiste à identifier et hiérarchiser les produits de fission (PF) contributeurs principaux à la perte de réactivité dans un RNR-Na typique. L'état des connaissances (données nucléaires JEFF4) sera dressé. La deuxième partie correspond à la mesure par activation et l'évaluation de la section efficace de capture des PF RNR stables en spectre rapide. Elle consiste à concevoir, spécifier, réaliser et mettre en œuvre un porte-cible PF-RNR « stables » dans le réacteur de l’ILL ou au poste de reprise du réacteur CABRI (avec écrans aux neutrons thermiques).
La troisième et dernière partie est la conception d’une expérience dans le RJH permettant de générer des PF-RNR et de les caractériser. Elle consiste à concevoir des essais d’irradiation de combustibles en conditions représentatives d’un RNR-Na, pour accéder à l’inventaire PF par spectrométrie sous eau dans le RJH et pesée intégrale de réactivité avant/après irradiation dans CABRI ou un autre réacteur disponible.
La thèse se déroule dans une équipe expérimentée dans la caractérisation neutronique et thermohydraulique du RJH.
Le/La doctorant/e sera aussi accompagné/e par plusieurs experts du département, au fur et à mesure des thématiques abordées. Il/Elle pourra valoriser ses résultats auprès de tous les partenaires de la filière (CEA, EDF, Framatome, Orano, Technicatome etc.).
De la combustion à l’astrophysique : simulations exaflopiques des écoulements fluides/particules
Cette thèse se concentre sur le développement de méthodes numériques avancées pour simuler les interactions entre fluides et particules dans des environnements complexes. Ces méthodes, initialement utilisées dans des applications industrielles comme la combustion et les écoulements multiphasiques, seront améliorées pour permettre une utilisation dans des codes de simulation pour supercalculateur exaflopique et adaptées aux besoins de l'astrophysique. L'objectif est de permettre l'étude des phénomènes astrophysiques tels que : la dynamique des poussières dans les disques protoplanétaires et la structuration de la poussière dans les proto-étoiles et le milieu interstellaire. Les résultats attendus incluent une meilleure compréhension des mécanismes de formation planétaire et de structuration des disques, ainsi que des avancées dans les méthodes numériques qui seront bénéfiques pour les sciences industrielles et astrophysiques.