Inférence Bayesienne avec des simulateurs différentiables pour l'analyse jointe de la distribution des galaxies et du lentillage du CMB

L'objectif de ce projet de doctorat est de développer une nouvelle analyse conjointe de la distribution des galaxies mesurées par l'instrument DESI et de la mesure de Planck PR4/ACT de lentillage du fonds diffus cosmologique (CMB), en se basant sur des simulations numériques des relevés et les méthodes d'apprentissage automatique et les techniques d'inférence statistique les plus modernes. L'objectif est de surmonter les approches traditionnelles et d'améliorer la récupération des paramètres cosmologiques.
cosmologiques. L'inférence jointe des données de DESI et de Planck/ACT améliorera de manière significative les contraintes sur la croissance de la structure par rapport aux analyses DESI uniquement et de raffiner plus encore les tests de la relativité générale.

Impact du clustering de sources sur les statistiques d'ordre supérieur des données weak lensing d'Euclid

Dans les années à venir, la mission Euclid fournira des mesures des formes et des positions de milliards de galaxies avec une précision sans précédent. Lorsque la lumière des galaxies d’arrière-plan traverse l’Univers, elle est déviée par la gravité des structures cosmiques, déformant les formes apparentes des galaxies. Cet effet, connu sous le nom de lentille faible, est la sonde cosmologique la plus puissante de la prochaine décennie, et il peut répondre à certaines des plus grandes questions de la cosmologie : que sont la matière noire et l’énergie noire, et comment se forment les structures cosmiques ?
L’approche standard de l’analyse de la lentille faible consiste à ajuster les statistiques à deux points des données, telles que la fonction de corrélation des formes de galaxies observées. Cependant, cette compression des données n’est pas optimale et rejette de grandes quantités d’informations. Cela a conduit au développement de plusieurs approches basées sur des statistiques d’ordre élevé, telles que les troisièmes moments, les harmoniques de phase en ondelettes et les analyses au niveau du champ. Ces techniques fournissent des contraintes plus précises sur les paramètres du modèle cosmologique (Ajani et al. 2023). Cependant, avec leur précision croissante, ces méthodes deviennent sensibles aux effets systématiques qui étaient négligeables dans les analyses statistiques standard à deux points.
L'une de ces systématiques est le regroupement des sources, qui fait référence à la distribution non uniforme des galaxies observées dans les relevés de lentilles faibles. Plutôt que d'être uniformément distribuées, les galaxies observées suivent la densité de matière sous-jacente. Ce regroupement provoque une corrélation entre le signal de lentille et la densité du nombre de galaxies, conduisant à deux effets : (1) il module la distribution effective du décalage vers le rouge des galaxies, et (2) il corrèle le bruit de forme des galaxies avec le signal de lentille. Bien que cet effet soit négligeable pour les statistiques à deux points (Krause et al. 2021, Linke et al. 2024), il a un impact significatif sur les résultats des statistiques d'ordre élevé (Gatti et al. 2023). Par conséquent, une modélisation précise du regroupement des sources est essentielle pour appliquer ces nouvelles techniques aux données de lentilles faibles d'Euclid.
Dans ce projet, nous développerons un cadre d'inférence pour modéliser le regroupement de sources et évaluer son impact sur les contraintes cosmologiques à partir de statistiques d'ordre élevé. Les objectifs du projet sont :
1. Développer un cadre d'inférence qui remplit les champs de matière noire avec des galaxies, en modélisant avec précision la distribution non uniforme des galaxies d'arrière-plan dans les relevés de lentilles faibles.
2. Quantifier l'impact du regroupement de sources sur les paramètres cosmologiques à partir de transformées en ondelettes et d'analyses au niveau du champ.
3. Incorporer le regroupement de sources dans des émulateurs de la distribution de matière pour permettre une modélisation précise des données dans les analyses statistiques d'ordre élevé.
Grâce à ces développements, ce projet améliorera la précision des analyses cosmologiques et le réalisme de la modélisation des données, rendant possibles des analyses statistiques d'ordre élevé pour les données Euclid.

Détecter les premiers amas de galaxies de l'Univers dans les cartes du fond diffus cosmologique

Les amas de galaxies, situés aux nœuds de la toile cosmique, sont les plus grandes structures de l’Univers liées par la gravitation. Leur nombre et leur distribution spatiale sont très sensibles aux paramètres cosmologiques, comme la densité de matière dans l’Univers. Les amas constituent ainsi une sonde cosmologique performante. Elle a fait ses preuves ces dernières années (sondages Planck, South Pole Telescope, XXL, etc.) et promet de grandes avancées les prochaines années (sondages Euclid, Observatoire Vera Rubin, Simons Observatory, CMB-S4, etc.).
Le pouvoir cosmologique des amas de galaxies s’accroît avec la taille de l’intervalle de décalage vers le rouge (redshift z) couvert par le catalogue. Planck a détecté les amas les plus massifs de l’Univers dans 0<z<1 alors que SPT et ACT, plus sensibles mais couvrant moins de ciel, ont déjà détecté des dizaines d’amas entre z=1 et z=1.5 et quelques amas entre z=1.5 et z=2. La prochaine génération d’instruments (Simons Observatory à partir de 2025 et CMB-S4 à partir de 2034) permettra de détecter de façon routinière les amas dans 1<z<2 et observera les premiers amas formés dans l’Univers dans 2<z<3.
Seules les expériences étudiant le fond diffus cosmologique pourront observer le gaz chaud dans ces premiers amas à 2<z<3, grâce à l’effet SZ, du nom de ses deux découvreurs Sunyaev et Zel’dovich. Cet effet, dû aux électrons de grande énergie du gaz des amas, provoque une petite perturbation du spectre en fréquence du fond diffus cosmologique, ce qui le rend détectable. Mais le gaz n’est pas la seule composante émettrice dans les amas : des galaxies à l’intérieur des amas émettent aussi en radio ou en infrarouge ce qui contamine le signal SZ. Cette contamination est faible à z<1 mais augmente drastiquement avec le redshift. On s’attend à ce que ces émissions radio et infrarouge soient du même ordre de grandeur que le signal SZ dans l’intervalle 2<z<3.
Il faut donc essayer de comprendre et modéliser l’émission du gaz des amas en fonction du redshift, mais aussi celle des galaxies radio et infrarouge qu’ils contiennent pour pouvoir préparer la détection des premiers amas de galaxies de l’Univers.
L’Irfu/DPhP a développé les premiers outils de détection d’amas de galaxies dans les données du fond diffus cosmologique dans les années 2000. Ces outils ont été utilisés avec succès sur les données Planck et sur les données sol, comme celles de l’expérience SPT. Ils sont efficaces pour détecter les amas de galaxies dont l’émission est dominée par le gaz mais leur performance est inconnue dans le cas où l‘émission par les galaxies radios et infrarouges est importante.
Le travail de thèse consistera dans un premier temps à étudier et modéliser les émissions radio et infrarouge des galaxies des amas détectés dans les données du fond diffus cosmologique (Planck, SPT et ACT) en fonction du redshift.
Dans un second temps, on quantifiera l’impact de de ces émissions sur les outils de détection d’amas existants, dans le domaine de redshift actuellement sondé (0<z<2) puis dans le domaine de redshift futur (2<z<3).
Enfin, à partir de notre connaissance acquise sur ces émissions radio et infrarouge des galaxies dans les amas, on développera un nouvel outil d’extraction d’amas destiné aux amas à grand redshift (2<z<3) pour maximiser l’efficacité de détection et la maîtrise des effets de sélection, i.e. le nombre d’amas détecté par rapport à au nombre total sous-jacent.
Le doctorant rejoindra les collaborations Simons Observatory et CMB-S4.

Geometrie de la toile cosmique: du modele théorique aux observations

L'étude des filaments de la toile cosmique est un aspect primordial de la recherche moderne en cosmologie. Avec l'avènement des grands relevés cosmologiques extrêmement vastes et précis, notamment la mission spatiale Euclid, il devient possible d'étudier en détail la formation des structures cosmiques via l'instabilité gravitationnelle. En particulier, les aspects non linéaires de cette dynamique peuvent être étudiés d'un point de vue théorique avec l'espoir de détecter des signatures dans les observations. L'une des principales difficultés à cet égard est probablement de faire le lien entre la distribution observée des galaxies le long des filaments et la distribution de matière sous-jacente pour laquelle des modèles à partir de premiers principes sont connus. En s'appuyant sur des développements théoriques récents en théorie des perturbations gravitationnelles et en théorie des champs aléatoires contraints, le candidat retenu développera des prédictions pour des observables statistiques (comptages d'extrema, estimateurs topologiques, fonctions de corrélation d'extrema, voir e.g Pogosyan et al. 2009, MNRAS 396 ou Ayçoberry, Barthelemy, Codis 2024, A&A 686) de la toile cosmique, appliqués au champ discret de galaxies qui ne trace la matière totale que de manière biaisée. Ce modèle sera ensuite appliqué à l'analyse des données d'Euclid.

Mesures de rendement de fission pour l'évaluation de la chaleur de désintégration du combustible nucléaire usé.

La réaction de fission est un processus violent au cours duquel un noyau lourd est divisé en deux composants, les fragments de fission. La distribution des fragments de fission produits est très large ; plus de 300 isotopes radioactifs différents peuvent être produits lors de la fission et leur désintégration radioactive est une question importante pour la manipulation et le stockage sûr du combustible nucléaire usé.
Le dispositif expérimental disponible au GANIL permet une identification précise et complète des fragments de fission, avant leur désintégration radioactive.
Une campagne expérimentale a été menée au VAMOS en 2024 pour étudier la fission de différents actinides produits dans des réactions de transfert de plusieurs nucléons, sur la base de la technique de cinématique inverse.
Les données obtenues constituent une référence importante pour les modèles nucléaires et les codes de simulation de la chaleur dégagée lors de la désintégration du combustible nucléaire usagé.
Ces données innovantes contr

Génération d’harmoniques d’ordre élevé en cavité comme source quantique attoseconde

La physique attoseconde est à la pointe de la spectroscopie résolue en temps. En effet, elle exploite la sonde d’impulsion lumineuse la plus courte qui puisse être produite expérimentalement, grâce au processus de génération d’harmoniques d’ordre élevé (HHG). Une méthode standard pour déclencher le processus HHG consiste à soumettre un système atomique à un champ électromagnétique oscillant dont la force est comparable au potentiel de Coulomb liant les électrons au noyau. Cet effet optique non linéaire et nonperturbatif produit un rayonnement cohérent avec un spectre très large dans la gamme de fréquences de l’extrême ultraviolet (XUV), qui forme des impulsions attosecondes (1e-18 s). Depuis sa découverte à la fin des années 1980, des efforts expérimentaux et théoriques continus ont été consacrés à la compréhension complète de ce phénomène complexe. Malgré l’immense succès de la science attoseconde, il n’y a toujours pas de consensus sur une description quantique du processus. Nous pensons qu’une telle description de la HHG ferait progresser notre compréhension de l’optique non linéaire et ouvrirait de nouvelles perspectives pour la science attoseconde.

Etude systématique des réactions de diffusion des neutrons sur les matériaux de structure d'intérêt pour les applications électronucléaires

Les réactions de diffusion élastique et inélastique sur les matériaux de structure ont un impact non négligeable sur la simulation du transport des neutrons dans ces matériaux. Les données nucléaires des matériaux de structure d’intérêt pour les réacteurs nucléaires et les études de criticité doivent être connues avec une bonne précision sur un large domaine en énergie du neutron incident, allant de quelques dizaines de meV à plusieurs MeV. Or, la méconnaissance de ces réactions empêche d’atteindre la précision souhaitée. Cette proposition de thèse vise à mener une étude systématique des réactions de diffusion au-delà du domaine des résonances résolues jusqu’à 5 MeV, domaine dans lequel ni le formalisme de la Matrice-R ni le modèle statistique Hauser-Feshbach ne sont applicables pour les matériaux de structure. L’absence de modèle nucléaire utilisable nécessite la mise en place d’un nouveau formalisme alimenté par des mesures à haute résolution des distributions angulaires associées aux réactions de diffusion. Ce travail portera plus précisément sur des mesures déjà réalisées (sodium [1], fer [2]) et sera étendu à d’autres éléments étudiés dans le cadre du projet international INDEN de l’AIEA, tels que le cuivre, chrome et nickel. Pour cela, La base de données expérimentales disponible sera complétée dans le cadre de cette thèse par de nouvelles mesures sur les isotopes du cuivre (Cu63 et Cu65). Les mesures seront réalisées au JRC Geel avec le multi-détecteur ELISA. Concernant le cuivre, les benchmarks intégraux de la base de criticité ICSBEP ont révélés plusieurs lacunes dans les bibliothèques JEFF de données nucléaires évaluées qui questionnent indirectement la connaissance des données nucléaires de l’U235. Par exemple, les benchmarks ZEUS, utilisés pour étudier la section efficace de capture de l’U235 dans le domaine en énergie des neutrons rapides, sont très sensibles aux données nucléaires du réflecteur en cuivre. Ce type de benchmark permettra de quantifier l’impact du nouveau formalisme d’évaluation des données nucléaires des matériaux de structure.

Cette étude permettra au candidat d'acquérir des compétences en physique nucléaire expérimentale et théorique, ainsi qu’en physique neutronique. Les résultats obtenus seront valorisés auprès du groupe de travail JEFF de L'Agence pour l'Energie Nucléaire (OCDE/AEN).

[1] P. Archier, Contribution à l’amélioration des données nucléaires neutroniques du sodium pour le calcul des réacteurs de génération IV, Thèse, Université de Grenoble, 2011.
[2] G. Gkatis, Study of neutron induced reaction cross sections on Fe isotopes at the GELINA facility relevant to reactor applications, Thèse, Université Aix-Marseille, 2024.

Mesure intégrale de sections efficaces de capture de produits de fission par la combinaison de techniques d’oscillation et d’activation

Cette thèse s’inscrit dans le cadre du projet POSEIDON (Fission Product Oscillation Experiments for Improving Depletion Calculations), qui porte sur la mesure intégrale des sections efficaces de capture et de diffusion neutroniques des principaux produits de fission contributeurs à la perte de réactivité dans les combustibles irradiés. Il consiste en la mesure, au moyen d’un dispositif d’oscillation en réacteur, de l’effet en réactivité d’échantillons d’isotopes séparés, couplée à la mesure par activation neutronique, dans trois configurations spectrales de cœur : thermique, REP et épithermique.

Une partie de la thèse se déroulera au CEA IRESNE à Cadarache et une partie au Centre de Recherche de la République Tchèque CV Rez. L’étudiante/étudiant participera aux tests et à l’optimisation du dispositif d’oscillation actuellement en cours de fabrication, ainsi qu’à la réalisation des mesures au sein du réacteur expérimental tchèque LR0. La partie de la thèse qui aura lieu à Cadarache portera sur l’analyse des données obtenues. Cette analyse sera réalisée avec des outils de simulation Monte-Carlo. Certaines fonctionnalités nécessaires à l’exploitation des données nécessiteront un développement spécifique au sein des codes par l’étudiante/étudiant.

Une retombée attendue de ces travaux est une meilleure prédiction de la perte de réactivité des cœurs de réacteur en fonction du burn-up. Actuellement, même avec les bibliothèques de données nucléaires internationales les plus récentes, un biais important existe dans l’estimation de cette perte de réactivité.

L’étudiante/étudiant développera des compétences en physique neutronique expérimentale et théorique. Les débouchés incluent les laboratoires de R&D et l’industrie nucléaire.

Modélisation de la polarisation de charges nucléaires des fragments de fission pour l’évaluation des rendements de fission : applications aux noyaux d’intérêt pour le cycle du combustible

La thématique des données nucléaires est centrale pour les applications de l’énergie nucléaire, constituant le pont entre les propriétés « microscopiques » des noyaux et les valeurs clés « macroscopiques » utiles aux calculs de physique des réacteurs et du cycle. Le Laboratoire d’études de Physique de l’institut IRESNE du CEA Cadarache est engagé dans l’évaluation de ces données nucléaires dans le cadre d’un programme développé au sein du groupe JEFF (animé par l’Agence de l’Energie Nucléaire) et d’un Coordinated Research Project de l’AIEA. Le développement récent d’une nouvelle méthodologie d’évaluation des rendements de fission (taux de production des produits de fission après l’émission des neutrons prompts) induite par neutrons thermiques a permis d’améliorer les précisions des évaluations proposées pour la bibliothèque JEFF-4.0 en fournissant leur matrice de covariances. Pour étendre les évaluations de rendements de fission induites par neutrons thermiques au spectre des neutrons rapides, il est nécessaire de développer un couplage des outils d’évaluation actuels avec des modèles de rendements de fission avant émission des neutrons prompts. Ce couplage est indispensable pour extrapoler les études déjà réalisées sur la fission thermique de l’235U et du 239Pu aux noyaux moins connus expérimentalement (241Pu, 241Am, 245Cm) ou étudier la dépendance de ces rendements avec l’énergie cinétique des neutrons incidents. Une des composantes essentielles manquantes est la description de la distribution en charge nucléaire (Z) en fonction de la masse des fragments de fission et de l’énergie du neutron incident. Ces distributions sont caractérisées par un paramètre clé : la polarisation de charge. Cette polarisation traduit un excès (respectivement défaut) de proton dans le pic des fragments légers (respectivement lourds) par rapport à la densité de charges moyenne du noyau fissionnant. Si cette quantité a été mesurée pour la réaction 235U(nth,f), elle est lacunaire pour d’autres énergies de neutrons ou d’autres systèmes fissionnants. Les perspectives de ce sujet portent autant sur l’impact de ces nouvelles évaluations sur les grandeurs-clés pour les applications électronucléaires qu’à la validation des mécanismes de fission décrit par les modèles microscopiques de fission.

Optimisation de détecteurs de rayonnement gamma pour l’imagerie médicale. Tomographie par émission de positrons temps de vol

La tomographie par émission de positrons (TEP) est une technique d'imagerie médicale nucléaire largement utilisée en oncologie et en neurobiologie.
Nous vous proposons de contribuer au développement d’une technologie ambitieuse et brevetée : ClearMind. Le premier prototype est à nos laboratoires. Ce détecteur de photons gamma utilise un cristal monolithique de PbWO4, dans lequel sont produits des photons Cherenkov et de scintillation. Ces photons optiques sont convertis en électrons par une couche photo-électrique et multipliés dans une galette à microcanaux. Les signaux électriques induits sont amplifiés par des amplificateurs gigahertz et numérisés par les modules d'acquisition rapide SAMPIC. La face opposée du cristal sera équipée d'une matrice de photo-détecteur en silicium (SiPM).
Vous travaillerez dans un laboratoire d’instrumentation avancé dans un environnement de physique des particules.
Il s’agira d’abord d’optimiser les « composants » des détecteurs ClearMind, pour parvenir à des performances nominales. Nous travaillerons sur les cristaux scintillants, les interfaces optiques, les couches photo-électriques et les photo-déteceturs rapides associés, les électroniques de lectures.
Il s’agira ensuite de caractériser les performances des détecteurs prototypes sur nos bancs de mesure en développement continu.
Il s’agira enfin de confronter les propriétés mesurées de nos détecteurs à des simulations dédiées (Monté-Carlo sur logiciels Geant4/Gate).
Un effort particulier sera con-sacré au développement de cristaux scintillants ultra-rapides dans le contexte d’une collaboration européenne.

Top