Estimation rapide des paramètres des ondes gravitationnelles pour la mission spatiale LISA
Contexte
En 2016, l'annonce de la première détection directe d'ondes gravitationnelles a ouvert une ère où l'univers sera sondé de manière inédite. Parallèlement, le succès de la mission LISA Pathfinder a permis de valider certaines technologies sélectionnées pour le projet LISA (Laser Interferometer Space Antenna). L'année 2024 a commencé avec l'adoption de la mission LISA par l'Agence spatiale européenne (ESA) et la NASA. Cet observatoire spatial des ondes gravitationnelles sans précédent sera composé de trois satellites distants de 2,5 millions de kilomètres et permettra la détection directe d'ondes gravitationnelles à des fréquences indétectables par les interféromètres terrestres. L'ESA prévoit un lancement en 2035.
Parallèlement aux aspects techniques, la mission LISA présente plusieurs défis en matière d'analyse des données qui doivent être relevés pour assurer le succès de la mission. La mission doit prouver qu'avec des simulations, la communauté scientifique sera en mesure d'identifier et de caractériser les signaux d'ondes gravitationnelles détectés. L'analyse des données comporte plusieurs étapes, dont le pipeline d'analyse rapide, dont le rôle est de détecter de nouveaux événements et de caractériser les événements détectés. Le dernier point concerne l'estimation rapide de la position dans le ciel de la source d'émission des ondes gravitationnelles et de leur temps caractéristique, comme le temps de coalescence pour une fusion de trous noirs.
Ces outils d'analyse constituent le pipeline d'analyse à faible latence. Outre son intérêt pour LISA, ce pipeline joue également un rôle essentiel pour permettre l'astronomie multi-messagers, qui consiste à surveiller rapidement les événements détectés par des observations électromagnétiques (observatoires terrestres ou spatiaux, des ondes radio aux rayons gamma).
Projet de doctorat
Le projet de doctorat se concentre sur le développement d'outils de détection et d'identification d'événements pour le pipeline d'alerte à faible latence (LLAP) de LISA. Ce pipeline sera une partie essentielle du flux de travail d'analyse de LISA, fournissant une détection rapide des binaires de trous noirs massifs, ainsi qu'une estimation rapide et précise des localisations du ciel des sources ainsi que du temps de coalescence. Ces informations sont essentielles pour les suivis multi-messager ainsi que pour l'analyse globale des données de LISA.
Alors que des méthodes d'analyse rapide ont été développées pour les interféromètres terrestres, le cas des interféromètres spatiaux tels que LISA reste un domaine à explorer. Un traitement adapté des données devra prendre en compte la façon dont les données sont transmises par paquets, ce qui rendra nécessaire la détection d'événements à partir de données incomplètes. En utilisant des données entachées d'artefacts tels que des glitchs ou des paquets de données manquants, ces méthodes devraient permettre la détection, la discrimination et l'analyse de diverses sources : fusions de trous noirs, EMRI (binaires spirales avec des rapports de masse extrêmes), sursauts et binaires provenant d'objets compacts. Un dernier élément de complexité crucial est la rapidité d'analyse, qui constitue une contrainte forte pour les méthodes à développer.
A cette fin, les problèmes que nous aborderons au cours de cette thèse seront les suivants :
1. L'inférence rapide des paramètres des ondes gravitationnelles, notamment la position du ciel et le temps de coalescence. Deux des principales difficultés résident dans la multimodalité de la distribution de probabilité a posteriori des paramètres cibles et dans les exigences strictes en matière de temps de calcul. À cette fin, nous envisagerons différentes stratégies d'inférence avancées, notamment
(a) L'utilisation d'algorithmes d'échantillonnage basés sur le gradient comme les diffusions de Langevin ou les méthodes de Monte Carlo Hamiltoniennes adaptées au problème des ondes gravitationnelles de LISA,
(b) l'utilisation de méthodes assistées par l'apprentissage automatique pour accélérer l'échantillonnage (par exemple, les normalising flows),
(c) l'utilisation de techniques d'inférence variationnelle.
2. Détection précoce des fusions de trous noirs.
3. La complexité croissante des données LISA, y compris, entre autres, un bruit réaliste, une réponse réaliste de l'instrument, des glitches, des données manquantes et des sources qui se superposent.
4. Le traitement en ligne des paquets de données de 5 minutes avec le cadre d'inférence rapide développé.
Cette thèse sera basée sur l'application de méthodes bayésiennes et statistiques pour l'analyse des données et l'apprentissage automatique. Cependant, un effort sur la partie physique est nécessaire, à la fois pour comprendre les simulations et les différentes formes d'ondes considérées (avec leurs hypothèses sous-jacentes) et pour interpréter les résultats concernant la détectabilité des signaux de fusion de trous noirs dans le contexte de l'analyse rapide des données LISA.
Near-threshold phenomena in nuclear structure and reactions
Il est proposé d'étudier les effets saillants du couplage entre les états discrets et continus à proximité de divers seuils d'émission de particules en utilisant le modèle en couches dans le plan d'énergie complexe. Ce modèle fournit la formulation unitaire d'un modèle en couches standard dans le cadre du système quantique ouvert pour la description d'états nucléaires bien liés, faiblement liés et non liés. Des études récentes ont démontré l'importance de l'énergie de corrélation résiduelle du couplage aux états du continuum pour la compréhension des états propres, leur énergie et modes de désintégration, au voisinage du canaux de reaction. Cette énergie résiduelle n'a pas encore été étudiée en details. Les études de cette thèse approfondiront notre compréhension des effets structurels induits par le couplage au continuum et apporteront un support aux études expérimentales au GANIL et ailleurs.
Développement d'un cadre d'analyse basé sur le ML pour la caractérisation rapide des conteneurs de déchets nucléaires par tomographie muonique
Cette thèse de doctorat vise à développer un cadre d'analyse avancé pour l'inspection des conteneurs de déchets nucléaires à l'aide de la tomographie muonique, et plus particulièrement via la méthode par diffusion des muons. La tomographie muonique, qui exploite les muons naturels issus des rayons cosmiques pour scanner des structures denses, s'est avérée précieuse dans des domaines dans lesquels les méthodes d'imagerie traditionnelles sont inefficaces. Le CEA/Irfu, avec son expertise dans les détecteurs de particules, cherche à exploiter l'intelligence artificielle (IA) et le Machine Learning (ML) pour optimiser l'analyse des données des muons, notamment pour réduire les temps d'exposition et améliorer la fiabilité des images.
Le projet consistera à se familiariser avec les principes de la muographie, à simuler les interactions des muons avec les conteneurs de déchets et à développer des techniques de traitement d'images et d'augmentation de données basées sur le ML. Le résultat devrait aboutir à des outils efficaces permettant d'interpréter les muographies (images de tomographie muonique), d’accélérer l’analyse et de classifier de manière fiable le contenu des conteneurs. L'objectif de la thèse est d'améliorer la sécurité et la fiabilité de l'inspection des déchets nucléaires en produisant des muographies plus nettes, plus rapides et plus interprétables grâce à des méthodes d'analyse innovantes.
DE NOUVELLES VOIES POUR PRODUIRE DES NOYAUX LOURDS RICHES EN NEUTRONS
L'un des projets de recherche les plus importants de ces dernières années est né d'une question critique et non résolue concernant l'origine naturelle des noyaux plus lourds que le fer. Dans les noyaux lourds, riches en neutrons, la théorie predits l’existence d'un îlots de stabilité atour des nombres de protons Z = 114, 120 ou 126 et le nombre de neutrons N = 184.
Cependant, les efforts récents pour synthétiser des éléments superlourds et explorer les noyaux riches en neutrons N = 126 se sont heurtés à des difficultés considérables en raison des sections efficaces extrêmement faibles des réactions traditionnelles de fusion-évaporation. Ces facteurs soulignent le besoin urgent d'une solution alternative pour la synthèse des éléments super-lourds.Ces facteurs soulignent l'urgence de trouver d'autres mécanismes de réaction. L'une d'entre elles a été identifiée dans les réactions de transfert de multinucléons (MNT), qui offrent une voie prometteuse vers les noyaux lourds riches en neutrons. Nous travaillons sur ce mécanisme de réaction depuis plusieurs années, en réalisant des expériences à l'Argonne National Laboratory et dans d'autres laboratoires internationaux. L'objectif de cette thèse est d'analyser les données recueillies lors de l'expérience que ont a réaliser à Argonne (fin 2023) et de proposer une nouvelle expérience au spectromètre Prisma (Legnaro National Lab) couplé avec le détecteur Agata.
Formes, rotations et vibrations du noyau du 106Cd étudiées par spectroscopie gamma avec GRIFFIN et AGATA
Une des questions phares dans le domaine de la structure nucléaire concerne l'émergence de collectivité, et son lien avec la structure microscopique du noyau. Les noyaux atomiques peuvent manifester des comportements dits collectifs, où tous leurs constituants, les protons et les neutrons, se déplacent ensemble, à une fréquence donnée. Il s’agit surtout aux vibrations et rotations. Si un noyau n’est pas déformé, il ne peut être mis en rotation lorsqu’on l’excite ; en revanche, il présente des vibrations autour de sa forme d’équilibre sphérique.
Les isotopes pairs de cadmium ont longtemps été des cas d’école du comportement vibrationnel. Cette interprétation a cependant été remise en question suite aux études expérimentales récentes, qui ont, avec l'aide des calculs théoriques, conduit à la réorganisation des schémas de niveaux du 110,112Cd en termes d’excitations rotationnelles, suggérant la présence d’une variété de formes dans ces noyaux.
Grâce à un récent travail de thèse dans notre groupe, cette nouvelle interprétation a été étendue au noyau du 106Cd. Cependant, il reste plusieurs questions concernant la nature des niveaux observés a basse énergie d’excitation dans ce noyau. De plus, nous avons obtenu des indications que certains états excites peuvent être liés au couplage entre les vibrations du type dit octupolaire (c’est-à-dire le noyau se déforme adoptant une forme de poire) et quadripolaire (le noyau oscille entre les formes allongées et aplaties). Pour vérifier cette hypothèse, une expérience de décroissance bêta de précision a été proposée à TRIUMF (Vancouver, Canada) avec le spectromètre le plus avancé au monde dédié aux mesures de décroissance bêta, appelé GRIFFIN, pour chercher les voies de désintégration faibles dans le schéma de niveaux du 106Cd, et déterminer sans ambiguïté les spins des états excites grâce à l'analyse de corrélations angulaires gamma-gamma. Cette mesure permettra de résoudre les diverses énigmes concernant la structure de ce noyau, notamment la triaxialité de son état fondamental et la coexistence de formes multiples.
L’étudiant sera en charge de l’analyse de cette expérience, qui sera réalisée en 2025. Ensuite, en s’appuyant sur les résultats de cette analyse, elle/il procédera à une réévaluation de sections efficaces de peuplement de niveaux excités dans le 106Cd, qui ont été mesurées avec le spectromètre gamma de nouvelle génération AGATA au GANIL en utilisant la technique d’excitation coulombienne. Grâce à cette combinaison de mesures, nous espérons d’obtenir, pour la première fois dans la charte de noyaux, l’ensemble complet de probabilités de transition entre les états résultant du couplage entre les vibrations du type octupolaire et quadripolaire. Nous procéderons ensuite a l'interprétation des résultats obtenus en collaboration étroite avec des théoriciens.
Ce travail de thèse permettra à l’étudiant de suivre un projet dans son ensemble, de la préparation de l’expérience jusqu’à son interprétation théorique, et de se familiariser avec plusieurs techniques expérimentales de spectroscopie gamma, en utilisant les spectromètres gamma les plus avancés au monde.
L'apprentissage automatique pour l'analyse cosmologique des images de lentille gravitationnelle faible provenant du satellite Euclid
L'effet de lentille gravitationnelle faible, la distorsion des images de galaxies à haut redshift due aux structures de matière au long de la ligne de visée à grande échelle, est l'un des outils les plus prometteurs de la cosmologie pour sonder le secteur sombre de l'Univers. Le satellite spatial européen Euclide mesurera les paramètres cosmologiques avec une précision sans précédent. Pour atteindre cet objectif ambitieux, un certain nombre de sources d’erreurs systématiques doivent être quantifiées et comprises. L’une des principales origines des biais est liée à la détection des galaxies. Il existe une forte dépendance à la densité de galaxies locale et au fait que l'émission lumineuse de la galaxie chevauche les objets proches. Si elles ne sont pas traitées correctement, de telles galaxies « mélangées » (blended) biaiseront fortement toute mesure ultérieure de distorsions d'image à faible lentille.
L'objectif de cette thèse est de quanti?er et de corriger les biais de détection des lentilles faibles, notamment dus au mélange. À cette fin, des algorithmes modernes d’apprentissage automatique et profond, y compris des techniques d’auto-différenciation, seront utilisés. Ces techniques permettent une estimation très efficace de la sensibilité des biais liés aux propriétés des galaxies et des levés sans qu'il soit nécessaire de créer un grand nombre de simulations. L'étudiant effectuera des analyses d'inférence de paramètres cosmologiques des données de lentille faible d'Euclide. Les corrections des biais développées dans cette thèse seront inclutes à prior dans la mesure de formes de galaxies, où à postérior â l'aide de paramètres de nuisance, afin d'obtenir des mesures de paramètres cosmologiques avec une fiabilitlé requise pour une cosmologie de précision.
Inférence Bayesienne avec des simulateurs différentiables pour l'analyse jointe de la distribution des galaxies et du lentillage du CMB
L'objectif de ce projet de doctorat est de développer une nouvelle analyse conjointe de la distribution des galaxies mesurées par l'instrument DESI et de la mesure de Planck PR4/ACT de lentillage du fonds diffus cosmologique (CMB), en se basant sur des simulations numériques des relevés et les méthodes d'apprentissage automatique et les techniques d'inférence statistique les plus modernes. L'objectif est de surmonter les approches traditionnelles et d'améliorer la récupération des paramètres cosmologiques.
cosmologiques. L'inférence jointe des données de DESI et de Planck/ACT améliorera de manière significative les contraintes sur la croissance de la structure par rapport aux analyses DESI uniquement et de raffiner plus encore les tests de la relativité générale.
Impact du clustering de sources sur les statistiques d'ordre supérieur des données weak lensing d'Euclid
Dans les années à venir, la mission Euclid fournira des mesures des formes et des positions de milliards de galaxies avec une précision sans précédent. Lorsque la lumière des galaxies d’arrière-plan traverse l’Univers, elle est déviée par la gravité des structures cosmiques, déformant les formes apparentes des galaxies. Cet effet, connu sous le nom de lentille faible, est la sonde cosmologique la plus puissante de la prochaine décennie, et il peut répondre à certaines des plus grandes questions de la cosmologie : que sont la matière noire et l’énergie noire, et comment se forment les structures cosmiques ?
L’approche standard de l’analyse de la lentille faible consiste à ajuster les statistiques à deux points des données, telles que la fonction de corrélation des formes de galaxies observées. Cependant, cette compression des données n’est pas optimale et rejette de grandes quantités d’informations. Cela a conduit au développement de plusieurs approches basées sur des statistiques d’ordre élevé, telles que les troisièmes moments, les harmoniques de phase en ondelettes et les analyses au niveau du champ. Ces techniques fournissent des contraintes plus précises sur les paramètres du modèle cosmologique (Ajani et al. 2023). Cependant, avec leur précision croissante, ces méthodes deviennent sensibles aux effets systématiques qui étaient négligeables dans les analyses statistiques standard à deux points.
L'une de ces systématiques est le regroupement des sources, qui fait référence à la distribution non uniforme des galaxies observées dans les relevés de lentilles faibles. Plutôt que d'être uniformément distribuées, les galaxies observées suivent la densité de matière sous-jacente. Ce regroupement provoque une corrélation entre le signal de lentille et la densité du nombre de galaxies, conduisant à deux effets : (1) il module la distribution effective du décalage vers le rouge des galaxies, et (2) il corrèle le bruit de forme des galaxies avec le signal de lentille. Bien que cet effet soit négligeable pour les statistiques à deux points (Krause et al. 2021, Linke et al. 2024), il a un impact significatif sur les résultats des statistiques d'ordre élevé (Gatti et al. 2023). Par conséquent, une modélisation précise du regroupement des sources est essentielle pour appliquer ces nouvelles techniques aux données de lentilles faibles d'Euclid.
Dans ce projet, nous développerons un cadre d'inférence pour modéliser le regroupement de sources et évaluer son impact sur les contraintes cosmologiques à partir de statistiques d'ordre élevé. Les objectifs du projet sont :
1. Développer un cadre d'inférence qui remplit les champs de matière noire avec des galaxies, en modélisant avec précision la distribution non uniforme des galaxies d'arrière-plan dans les relevés de lentilles faibles.
2. Quantifier l'impact du regroupement de sources sur les paramètres cosmologiques à partir de transformées en ondelettes et d'analyses au niveau du champ.
3. Incorporer le regroupement de sources dans des émulateurs de la distribution de matière pour permettre une modélisation précise des données dans les analyses statistiques d'ordre élevé.
Grâce à ces développements, ce projet améliorera la précision des analyses cosmologiques et le réalisme de la modélisation des données, rendant possibles des analyses statistiques d'ordre élevé pour les données Euclid.
Détecter les premiers amas de galaxies de l'Univers dans les cartes du fond diffus cosmologique
Les amas de galaxies, situés aux nœuds de la toile cosmique, sont les plus grandes structures de l’Univers liées par la gravitation. Leur nombre et leur distribution spatiale sont très sensibles aux paramètres cosmologiques, comme la densité de matière dans l’Univers. Les amas constituent ainsi une sonde cosmologique performante. Elle a fait ses preuves ces dernières années (sondages Planck, South Pole Telescope, XXL, etc.) et promet de grandes avancées les prochaines années (sondages Euclid, Observatoire Vera Rubin, Simons Observatory, CMB-S4, etc.).
Le pouvoir cosmologique des amas de galaxies s’accroît avec la taille de l’intervalle de décalage vers le rouge (redshift z) couvert par le catalogue. Planck a détecté les amas les plus massifs de l’Univers dans 0<z<1 alors que SPT et ACT, plus sensibles mais couvrant moins de ciel, ont déjà détecté des dizaines d’amas entre z=1 et z=1.5 et quelques amas entre z=1.5 et z=2. La prochaine génération d’instruments (Simons Observatory à partir de 2025 et CMB-S4 à partir de 2034) permettra de détecter de façon routinière les amas dans 1<z<2 et observera les premiers amas formés dans l’Univers dans 2<z<3.
Seules les expériences étudiant le fond diffus cosmologique pourront observer le gaz chaud dans ces premiers amas à 2<z<3, grâce à l’effet SZ, du nom de ses deux découvreurs Sunyaev et Zel’dovich. Cet effet, dû aux électrons de grande énergie du gaz des amas, provoque une petite perturbation du spectre en fréquence du fond diffus cosmologique, ce qui le rend détectable. Mais le gaz n’est pas la seule composante émettrice dans les amas : des galaxies à l’intérieur des amas émettent aussi en radio ou en infrarouge ce qui contamine le signal SZ. Cette contamination est faible à z<1 mais augmente drastiquement avec le redshift. On s’attend à ce que ces émissions radio et infrarouge soient du même ordre de grandeur que le signal SZ dans l’intervalle 2<z<3.
Il faut donc essayer de comprendre et modéliser l’émission du gaz des amas en fonction du redshift, mais aussi celle des galaxies radio et infrarouge qu’ils contiennent pour pouvoir préparer la détection des premiers amas de galaxies de l’Univers.
L’Irfu/DPhP a développé les premiers outils de détection d’amas de galaxies dans les données du fond diffus cosmologique dans les années 2000. Ces outils ont été utilisés avec succès sur les données Planck et sur les données sol, comme celles de l’expérience SPT. Ils sont efficaces pour détecter les amas de galaxies dont l’émission est dominée par le gaz mais leur performance est inconnue dans le cas où l‘émission par les galaxies radios et infrarouges est importante.
Le travail de thèse consistera dans un premier temps à étudier et modéliser les émissions radio et infrarouge des galaxies des amas détectés dans les données du fond diffus cosmologique (Planck, SPT et ACT) en fonction du redshift.
Dans un second temps, on quantifiera l’impact de de ces émissions sur les outils de détection d’amas existants, dans le domaine de redshift actuellement sondé (0<z<2) puis dans le domaine de redshift futur (2<z<3).
Enfin, à partir de notre connaissance acquise sur ces émissions radio et infrarouge des galaxies dans les amas, on développera un nouvel outil d’extraction d’amas destiné aux amas à grand redshift (2<z<3) pour maximiser l’efficacité de détection et la maîtrise des effets de sélection, i.e. le nombre d’amas détecté par rapport à au nombre total sous-jacent.
Le doctorant rejoindra les collaborations Simons Observatory et CMB-S4.
Geometrie de la toile cosmique: du modele théorique aux observations
L'étude des filaments de la toile cosmique est un aspect primordial de la recherche moderne en cosmologie. Avec l'avènement des grands relevés cosmologiques extrêmement vastes et précis, notamment la mission spatiale Euclid, il devient possible d'étudier en détail la formation des structures cosmiques via l'instabilité gravitationnelle. En particulier, les aspects non linéaires de cette dynamique peuvent être étudiés d'un point de vue théorique avec l'espoir de détecter des signatures dans les observations. L'une des principales difficultés à cet égard est probablement de faire le lien entre la distribution observée des galaxies le long des filaments et la distribution de matière sous-jacente pour laquelle des modèles à partir de premiers principes sont connus. En s'appuyant sur des développements théoriques récents en théorie des perturbations gravitationnelles et en théorie des champs aléatoires contraints, le candidat retenu développera des prédictions pour des observables statistiques (comptages d'extrema, estimateurs topologiques, fonctions de corrélation d'extrema, voir e.g Pogosyan et al. 2009, MNRAS 396 ou Ayçoberry, Barthelemy, Codis 2024, A&A 686) de la toile cosmique, appliqués au champ discret de galaxies qui ne trace la matière totale que de manière biaisée. Ce modèle sera ensuite appliqué à l'analyse des données d'Euclid.