L'instabilité de dérive non-résonnante dans les plasmas turbulents
La turbulence magnétique présente dans de nombreux systèmes astrophysiques tels que le vent solaire et les rémanents de supernova joue un rôle clé dans l'accélération de particules à haute énergie, notamment dans le contexte des ondes de choc non collisionnelles. En confinant certaines particules près du front de choc, elle leur permet de gagner de l'énergie par réflexions successives entre les milieux amont et aval, un mécanisme connu sous le nom de processus de Fermi et considéré comme étant à l'origine des rayons cosmiques.
La turbulence autour des rémanents de supernova est probablement déclenchée par les rayons cosmiques eux-mêmes, via des instabilités plasma lors de leur propagation en amont du choc. Dans le cas d'une onde de choc se déplaçant parallèlement au champ magnétique ambiant, l'instabilité dominante est celle de "dérive non-résonnante" - ou instabilité de Bell -, qui contribue à renforcer la turbulence préexistante.
L'objectif de cette thèse est de développer un modèle analytique complet de cette instabilité dans un plasma turbulent, puis d'en comparer les résultats à des simulations numériques avancées.
Description de phénomènes collectifs au sein des noyaux d’atome au-delà de l’approche de la fonctionnelle de la densité dépendant du temps
Contexte :
Prédire l'organisation et la dynamique des neutrons et protons au sein des noyaux d'atome est un véritable
défi scientifique, crucial pour concevoir les technologiques nucléaires du futur mais aussi pour répondre à
des questions fondamentales comme l'origine des atomes lourds dans notre univers. Dans ce cadre, le CEA,
DAM, DIF développe des approches théoriques visant à simuler la dynamique des constituants élémentaires
du noyau atomique. Les équations du mouvement obtenues, dans le cadre de la mécanique quantique, sont
résolues sur nos supercalculateurs. Les années 2010 ont vu une montée en puissance de l’approche dite de la
fonctionnelle de la densité dépendant du temps (TDDFT) pour traiter ce problème. Malgré sa description
révolutionnaire de certains phénomènes tels que les résonances géantes observées dans les noyaux d’atome
ou encore la fission nucléaire, cette approximation possède des limites intrinsèques.
Objectifs :
Cette thèse vise à développer et explorer une nouvelle approche théorique permettant de décrire les
phénomènes de mouvements collectifs des protons et neutrons au sein du noyau atomique. L’idée est de
généraliser l’approche TDDFT afin de mieux prédire certaines propriétés des réactions nucléaires comme la
répartition de l’énergie entre les fragments issus d’une fission nucléaire. Partant de premier travaux allant
dans cette direction, le/la doctorante devra dériver les équations du mouvement de cette nouvelle approche
puis les implémenter sous forme d’une librairie C++ optimisée et tirant profit des supercalculateurs du CEA.
Le but sera enfin d’étudier comment cette nouvelle approche améliore les prédictions de certains
phénomènes comme l’amortissement des résonances géantes dans les noyaux d’atomes ou encore la
naissance des fragments générés lors d’une fission nucléaire.
Description microscopique des propriétés des fragments de fission évaluées à la scission
La fission est l’une des réactions nucléaires les plus difficiles à décrire, reflétant la diversité des aspects dynamiques du problème à N-corps. Au cours de ce processus, le noyau explore des états de déformations extrêmes aboutissant à la formation de deux fragments. Alors que la nombre de degrés de liberté (DLC) mis en jeu est extrêmement grand, l’approximation de champ moyen est un bon point de départ qui opère une réduction drastique des DLC, l’élongation et l’asymétrie étant incontournables. Cette réduction introduit des discontinuités dans la génération successive des états par lesquels le noyau transite, la continuité en énergie n’assurant pas la continuité des états issus d’un principe variationnel. Récemment, une nouvelle méthode basée sur des contraintes associées aux recouvrements de fonctions d’onde, a été mise en oeuvre afin d’assurer cette continuité jusqu’à la scission et au-delà (vallée de Coulomb). Cette continuité est capitale pour décrire la dynamique du processus.
L’objectif de la thèse que nous proposons est de réaliser pour la première fois la mise en oeuvre à deux dimensions de cette nouvelle approche afin de prendre en compte l’ensemble de la collectivité générée par les DLC d’élongation et d’asymétrie. Les développements théoriques et numériques s’inscrivent dans le cadre de la méthode de la coordonnée génératice dépendant du temps. Ce type d’approche contient une première étape statique qui consiste en la génération de surfaces d’énergie potentielle (PES) obtenues par des calculs Hartree-Fock-Bogoliubov sous contraintes et une seconde étape dynamique qui décrit la propagation dynamique d’un paquet d’onde sur ces surfaces via la résolution de l’équation de Schrödinger dépendant du temps. C’est à partir de cette deuxième étape que les observables sont en général extraites.
Dans le cadre de cette thèse, le doctorant devra:
- en première étape, construire des PES à deux dimensions continues pour l’état adiabatique et les premiers états excités. Cela mettra en oeuvre les trois algorithmes Link, drop et Deflation
- en deuxième étape, extraire des observables accessibles par ce type d’approches: les rendements, le bilan énergétique à la scission, la déformation des fragments, le nombre moyen de neutrons émis. Nous souhaitons en particulier étudier l’impact des excitations intrinsèques sur les observables de fission, qui se manifestent essentiellement dans la descente du point scelle vers la scission.
Enfin, ces résulats seront confrontés aux données expérimentales, dans des actinides et des pré-actinides d’intérêt. Notamment, les mesures récentes très précises obtenues par les expériences SOFIA pour des noyaux peu à très exotiques devraient contribuer à tester la précision et la prédictivité de nos approches, et à guider les futurs développements des approches à N-corps et de l’interaction nucléaire dans le cadre de la fission.
Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable
Contexte
L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.
La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.
Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.
Projet de doctorat
Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.
Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.
Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.
Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.
La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.
Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.
Références
[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].
Validation de nouveaux schémas de calcul neutronique APOLLO3 des Réacteurs à Eau Légère à l’aide de simulations Monte Carlo multigroupes combinées à une approche perturbative
Le CEA développe depuis une douzaine d’années une plateforme de calcul neutronique déterministe multifilières, APOLLO3, qui commence à être utilisée pour des études de réacteur. Un schéma de calcul classique d’APOLLO3 en deux étapes repose sur une première étape de calculs d’assemblages en réseau infini à deux dimensions en transport fin générant des bibliothèques de sections efficaces multiparamétrées utilisées dans la deuxième étape de calcul de cœur 3D. Dans le cas d’un gros réacteur électrogène, le calcul de cœur nécessite des approximations qui peuvent être plus ou moins fortes suivant le type d’utilisation visée.
Les schémas de calcul de référence, type SHEM-MOC, et industriel, type REL2005, utilisés encore actuellement à l’étape réseau par le CEA et ses partenaires industriels, EDF et Framatome, ont été développés au milieu des années 2000 à partir des méthodes disponibles dans le code APOLLO2.8. Depuis, de nouveaux développements ont vu le jour dans le code APOLLO3 qui ont fait individuellement l’objet de travaux de vérification et validation démontrant leur capacité à améliorer la qualité des résultats à l’étape réseau. On peut citer, entre autre, les nouvelles méthodes d’autoprotection, sous-groupes et Tone, l’utilisation de sources linéaires surfaciques dans les calculs de flux en méthode des caractéristiques, la reconstruction de flux pour les calculs d’évolution isotopique, et nouveau maillage énergétique fin à 383 groupes.
L’objectif de cette thèse est de définir et valider deux nouveaux schémas de calculs réseau pour les applications REL qui intègrent tout ou partie de ces nouvelles méthodes, en visant des temps de calcul raisonnables pour le schéma de référence, et compatibles avec une utilisation en routine pour le schéma industriel (ces schémas ont vocation à être utilisés dans les futures chaînes de calculs du CEA et de ses partenaires). Les schémas de calcul mis en place seront validés à 2D sur des géométries issues de la suite de benchmarks VERA. La validation sera menée en suivant une approche innovante mettant en œuvre des calculs Monte Carlo à énergie continue ou multigroupes et une analyse perturbative des écarts.
Conception d’une expérience de validation du "crédit burnup" RNR dans le RJH
Le Réacteur nucléaire expérimental Jules Horowitz a pour mission première de répondre aux besoins d’irradiation de matériaux et combustibles pour l'industrie nucléaire actuelle et les générations ultérieures. Son démarrage est prévu autour de 2032. La conception des premières vagues de dispositifs expérimentaux du RJH est déjà très avancée, la priorité étant de répondre aux besoins industriels GEN2 et 3. En revanche, un champ reste ouvert à plus long terme, celui d’expériences indispensables à la filière GEN4, alors que l’on ne dispose pas de réacteur d’irradiation à spectre rapide.
L’objectif de la thèse est d’étudier la faisabilité d’expériences dans le RJH et d'autres réacteurs à eau, à des fins de validation de la perte de réactivité de combustibles RNR innovants.
La première partie du travail consiste à identifier et hiérarchiser les produits de fission (PF) contributeurs principaux à la perte de réactivité dans un RNR-Na typique. L'état des connaissances (données nucléaires JEFF4) sera dressé. La deuxième partie correspond à la mesure par activation et l'évaluation de la section efficace de capture des PF RNR stables en spectre rapide. Elle consiste à concevoir, spécifier, réaliser et mettre en œuvre un porte-cible PF-RNR « stables » dans le réacteur de l’ILL ou au poste de reprise du réacteur CABRI (avec écrans aux neutrons thermiques).
La troisième et dernière partie est la conception d’une expérience dans le RJH permettant de générer des PF-RNR et de les caractériser. Elle consiste à concevoir des essais d’irradiation de combustibles en conditions représentatives d’un RNR-Na, pour accéder à l’inventaire PF par spectrométrie sous eau dans le RJH et pesée intégrale de réactivité avant/après irradiation dans CABRI ou un autre réacteur disponible.
La thèse se déroule dans une équipe expérimentée dans la caractérisation neutronique et thermohydraulique du RJH.
Le/La doctorant/e sera aussi accompagné/e par plusieurs experts du département, au fur et à mesure des thématiques abordées. Il/Elle pourra valoriser ses résultats auprès de tous les partenaires de la filière (CEA, EDF, Framatome, Orano, Technicatome etc.).
De la combustion à l’astrophysique : simulations exaflopiques des écoulements fluides/particules
Cette thèse se concentre sur le développement de méthodes numériques avancées pour simuler les interactions entre fluides et particules dans des environnements complexes. Ces méthodes, initialement utilisées dans des applications industrielles comme la combustion et les écoulements multiphasiques, seront améliorées pour permettre une utilisation dans des codes de simulation pour supercalculateur exaflopique et adaptées aux besoins de l'astrophysique. L'objectif est de permettre l'étude des phénomènes astrophysiques tels que : la dynamique des poussières dans les disques protoplanétaires et la structuration de la poussière dans les proto-étoiles et le milieu interstellaire. Les résultats attendus incluent une meilleure compréhension des mécanismes de formation planétaire et de structuration des disques, ainsi que des avancées dans les méthodes numériques qui seront bénéfiques pour les sciences industrielles et astrophysiques.
Premières observations du ciel gamma au TeV avec la caméra NectarCAM pour l’observatoire CTA
L’astronomie des très hautes énergies est une partie de l’astronomie relativement récente (30 ans) qui s’intéresse au ciel au-dessus de 50 GeV. Après les succès du réseau H.E.S.S. dans les années 2000, un observatoire international, le Cherenkov Telescope Array (CTA) devrait entrer en fonctionnement à l’horizon 2026. Cet observatoire comportera une cinquantaine de télescopes au total, répartis sur deux sites. L’IRFU est impliqué dans la construction de la NectarCAM, une caméra destinée à équiper les télescopes « moyens » (MST) de CTA. Le premier exemplaire de cette caméra (sur les neuf prévues) est en cours d’intégration à l’IRFU et sera envoyé sur site en 2025. Une fois la caméra installée, les premières observations du ciel pourront avoir lieu, permettant de valider entièrement le fonctionnement de la caméra. La thèse vise à finaliser les tests en chambre noire à l’IRFU, préparer l’installation et valider le fonctionnement de la caméra sur le site de CTA. Elle vise également à effectuer les premières observations astronomiques avec ce nouvel instrument. Il est également prévu de participer à l’analyse des données de la collaboration H.E.S.S., sur des sujets d’astroparticules (recherche de trous noirs primordiaux, contraintes sur l’Invariance de Lorentz à l’aide d’AGN lointains).
Vers une plateforme d’irradiation photonique multimodale : fondements et conceptualisation
Les techniques d’irradiation photonique exploitent les interactions entre un faisceau de photons de haute énergie et la matière pour effectuer des mesures non destructives. En induisant des réactions photonucléaires, telles que l’activation photonique, les résonances de fluorescence nucléaire (NRF) et la photofission, ces techniques d’irradiation permettent de sonder la matière en profondeur. L’association de ces différentes techniques de mesure nucléaire au sein d’une plateforme d’irradiation unique permettrait une identification précise et quantitative d’une grande variété d’éléments, en sondant le volume des matériaux ou objets étudiés. Le faisceau de photons de haute énergie est généralement produit par rayonnement de freinage (phénomène de Bremsstrahlung) au sein d’une cible de conversion d’un accélérateur linéaire d’électrons. Une alternative innovante consiste à exploiter les électrons de haute énergie délivrés par une source laser-plasma, convertis par rayonnement de freinage ou par diffusion Compton inverse. Une plateforme basée sur une telle source offrirait de nouvelles possibilités, car les sources laser-plasma peuvent atteindre des énergies significativement supérieures, permettant ainsi l'accès à de nouvelles techniques et applications d'imagerie avancées. L’objectif de cette thèse est d’établir les fondements et de conceptualiser une plateforme d’irradiation photonique multimodale. Un tel dispositif viserait à se baser sur une source laser-plasma et permettrait la combinaison des techniques d’activation photonique, des résonances de fluorescence nucléaire (NRF) et de la photofission. En repoussant les limites des mesures nucléaires non destructives, cette plateforme offrirait des solutions innovantes à des défis majeurs dans des secteurs stratégiques tels que la sécurité et le contrôle aux frontières, la gestion des colis de déchets radioactifs, ainsi que l'industrie du recyclage.
ÉTUDE DE MÉTHODE D’INTELLIGENCE ARTIFICIELLE POUR LA SIMULATION ET L’EXTRACTION DE LA PRODUCTION DU BOSON DE HIGGS SE DÉSINTÉGRANT EN DEUX MUONS DANS L’EXPÉRIENCE ATLAS AU LHC
Les nouvelles techniques d’intelligence artificielle suscitent un intérêt croissant pour gérer le volume massif de données collectées par les expériences de physique des particules en particulier au collisionneur LHC. Cette thèse propose d’étudier ces nouvelles techniques pour la simulation du bruit de fond d’événements rares provenant de la désintégration en deux muons du boson de Higgs ainsi que de mettre en place de nouvelle méthode d’intelligence artificielle pour simuler la réponse de la résolution du détecteur du spectromètre à muons, qui est un élément crucial pour cette analyse.