Les amas de galaxies dans le champ profond FornaX XMM-Euclid

Le projet XMM Heritage sur le champ DEEP Euclid Fornax a pour but de caractériser les amas de galaxies distants en comparant les détections en X et en optique/IR. Les deux méthodes font appel à des propriétés des amas très différentes ; ultimement, leur combinaison permettra de fixer les paramètres libres de la fonction de sélection des amas Euclid sur tout le survey WIDE, et constituera donc un ingrédient fondamental pour l’analyse cosmologique Euclid.

La gamme de redshift visée ([1-2]) n'a jamais pu être explorée de manière systématique alors qu'elle constitue un domaine critique pour l'utilisation des amas en cosmologie.
Avec FornaX, pour la première fois, on aura accès à un grand volume à ces redshifts, ce qui permettra de quantifier statistiquement l'évolution des amas : rôle des AGN dans les propriétés du gaz intra-amas ? Existe-t-il des amas massifs déficients en gaz ? Quelles sont les biais respectifs de détection en X et en optique ?
Le travail de thèse consistera en (1) la construction et la validation du catalogue d’amas X ; (2) la corrélation avec les catalogues en optique/IR obtenus par Euclid (3) l’étude de l’évolution combinée X-optique des amas.
Tous les algorithmes de détection et de caractérisation des amas dans les images XMM existent, mais on poussera la détection plus profondément en utilisant des techniques d’intelligence artificielle (combinant l’information spatiale et spectrale sur les sources). Le problème complexe de la corrélation spatiale entre les catalogues d’amas XMM et Euclid fera aussi intervenir l’IA.

Site du projet : https://fornax.cosmostat.org/

Estimation rapide des paramètres des ondes gravitationnelles pour la mission spatiale LISA

Contexte
En 2016, l'annonce de la première détection directe d'ondes gravitationnelles a ouvert une ère où l'univers sera sondé de manière inédite. Parallèlement, le succès de la mission LISA Pathfinder a permis de valider certaines technologies sélectionnées pour le projet LISA (Laser Interferometer Space Antenna). L'année 2024 a commencé avec l'adoption de la mission LISA par l'Agence spatiale européenne (ESA) et la NASA. Cet observatoire spatial des ondes gravitationnelles sans précédent sera composé de trois satellites distants de 2,5 millions de kilomètres et permettra la détection directe d'ondes gravitationnelles à des fréquences indétectables par les interféromètres terrestres. L'ESA prévoit un lancement en 2035.
Parallèlement aux aspects techniques, la mission LISA présente plusieurs défis en matière d'analyse des données qui doivent être relevés pour assurer le succès de la mission. La mission doit prouver qu'avec des simulations, la communauté scientifique sera en mesure d'identifier et de caractériser les signaux d'ondes gravitationnelles détectés. L'analyse des données comporte plusieurs étapes, dont le pipeline d'analyse rapide, dont le rôle est de détecter de nouveaux événements et de caractériser les événements détectés. Le dernier point concerne l'estimation rapide de la position dans le ciel de la source d'émission des ondes gravitationnelles et de leur temps caractéristique, comme le temps de coalescence pour une fusion de trous noirs.
Ces outils d'analyse constituent le pipeline d'analyse à faible latence. Outre son intérêt pour LISA, ce pipeline joue également un rôle essentiel pour permettre l'astronomie multi-messagers, qui consiste à surveiller rapidement les événements détectés par des observations électromagnétiques (observatoires terrestres ou spatiaux, des ondes radio aux rayons gamma).

Projet de doctorat
Le projet de doctorat se concentre sur le développement d'outils de détection et d'identification d'événements pour le pipeline d'alerte à faible latence (LLAP) de LISA. Ce pipeline sera une partie essentielle du flux de travail d'analyse de LISA, fournissant une détection rapide des binaires de trous noirs massifs, ainsi qu'une estimation rapide et précise des localisations du ciel des sources ainsi que du temps de coalescence. Ces informations sont essentielles pour les suivis multi-messager ainsi que pour l'analyse globale des données de LISA.
Alors que des méthodes d'analyse rapide ont été développées pour les interféromètres terrestres, le cas des interféromètres spatiaux tels que LISA reste un domaine à explorer. Un traitement adapté des données devra prendre en compte la façon dont les données sont transmises par paquets, ce qui rendra nécessaire la détection d'événements à partir de données incomplètes. En utilisant des données entachées d'artefacts tels que des glitchs ou des paquets de données manquants, ces méthodes devraient permettre la détection, la discrimination et l'analyse de diverses sources : fusions de trous noirs, EMRI (binaires spirales avec des rapports de masse extrêmes), sursauts et binaires provenant d'objets compacts. Un dernier élément de complexité crucial est la rapidité d'analyse, qui constitue une contrainte forte pour les méthodes à développer.
A cette fin, les problèmes que nous aborderons au cours de cette thèse seront les suivants :
1. L'inférence rapide des paramètres des ondes gravitationnelles, notamment la position du ciel et le temps de coalescence. Deux des principales difficultés résident dans la multimodalité de la distribution de probabilité a posteriori des paramètres cibles et dans les exigences strictes en matière de temps de calcul. À cette fin, nous envisagerons différentes stratégies d'inférence avancées, notamment
(a) L'utilisation d'algorithmes d'échantillonnage basés sur le gradient comme les diffusions de Langevin ou les méthodes de Monte Carlo Hamiltoniennes adaptées au problème des ondes gravitationnelles de LISA,
(b) l'utilisation de méthodes assistées par l'apprentissage automatique pour accélérer l'échantillonnage (par exemple, les normalising flows),
(c) l'utilisation de techniques d'inférence variationnelle.
2. Détection précoce des fusions de trous noirs.
3. La complexité croissante des données LISA, y compris, entre autres, un bruit réaliste, une réponse réaliste de l'instrument, des glitches, des données manquantes et des sources qui se superposent.
4. Le traitement en ligne des paquets de données de 5 minutes avec le cadre d'inférence rapide développé.
Cette thèse sera basée sur l'application de méthodes bayésiennes et statistiques pour l'analyse des données et l'apprentissage automatique. Cependant, un effort sur la partie physique est nécessaire, à la fois pour comprendre les simulations et les différentes formes d'ondes considérées (avec leurs hypothèses sous-jacentes) et pour interpréter les résultats concernant la détectabilité des signaux de fusion de trous noirs dans le contexte de l'analyse rapide des données LISA.

L'apprentissage automatique pour l'analyse cosmologique des images de lentille gravitationnelle faible provenant du satellite Euclid

L'effet de lentille gravitationnelle faible, la distorsion des images de galaxies à haut redshift due aux structures de matière au long de la ligne de visée à grande échelle, est l'un des outils les plus prometteurs de la cosmologie pour sonder le secteur sombre de l'Univers. Le satellite spatial européen Euclide mesurera les paramètres cosmologiques avec une précision sans précédent. Pour atteindre cet objectif ambitieux, un certain nombre de sources d’erreurs systématiques doivent être quantifiées et comprises. L’une des principales origines des biais est liée à la détection des galaxies. Il existe une forte dépendance à la densité de galaxies locale et au fait que l'émission lumineuse de la galaxie chevauche les objets proches. Si elles ne sont pas traitées correctement, de telles galaxies « mélangées » (blended) biaiseront fortement toute mesure ultérieure de distorsions d'image à faible lentille.
L'objectif de cette thèse est de quanti?er et de corriger les biais de détection des lentilles faibles, notamment dus au mélange. À cette fin, des algorithmes modernes d’apprentissage automatique et profond, y compris des techniques d’auto-différenciation, seront utilisés. Ces techniques permettent une estimation très efficace de la sensibilité des biais liés aux propriétés des galaxies et des levés sans qu'il soit nécessaire de créer un grand nombre de simulations. L'étudiant effectuera des analyses d'inférence de paramètres cosmologiques des données de lentille faible d'Euclide. Les corrections des biais développées dans cette thèse seront inclutes à prior dans la mesure de formes de galaxies, où à postérior â l'aide de paramètres de nuisance, afin d'obtenir des mesures de paramètres cosmologiques avec une fiabilitlé requise pour une cosmologie de précision.

Inférence Bayesienne avec des simulateurs différentiables pour l'analyse jointe de la distribution des galaxies et du lentillage du CMB

L'objectif de ce projet de doctorat est de développer une nouvelle analyse conjointe de la distribution des galaxies mesurées par l'instrument DESI et de la mesure de Planck PR4/ACT de lentillage du fonds diffus cosmologique (CMB), en se basant sur des simulations numériques des relevés et les méthodes d'apprentissage automatique et les techniques d'inférence statistique les plus modernes. L'objectif est de surmonter les approches traditionnelles et d'améliorer la récupération des paramètres cosmologiques.
cosmologiques. L'inférence jointe des données de DESI et de Planck/ACT améliorera de manière significative les contraintes sur la croissance de la structure par rapport aux analyses DESI uniquement et de raffiner plus encore les tests de la relativité générale.

Impact du clustering de sources sur les statistiques d'ordre supérieur des données weak lensing d'Euclid

Dans les années à venir, la mission Euclid fournira des mesures des formes et des positions de milliards de galaxies avec une précision sans précédent. Lorsque la lumière des galaxies d’arrière-plan traverse l’Univers, elle est déviée par la gravité des structures cosmiques, déformant les formes apparentes des galaxies. Cet effet, connu sous le nom de lentille faible, est la sonde cosmologique la plus puissante de la prochaine décennie, et il peut répondre à certaines des plus grandes questions de la cosmologie : que sont la matière noire et l’énergie noire, et comment se forment les structures cosmiques ?
L’approche standard de l’analyse de la lentille faible consiste à ajuster les statistiques à deux points des données, telles que la fonction de corrélation des formes de galaxies observées. Cependant, cette compression des données n’est pas optimale et rejette de grandes quantités d’informations. Cela a conduit au développement de plusieurs approches basées sur des statistiques d’ordre élevé, telles que les troisièmes moments, les harmoniques de phase en ondelettes et les analyses au niveau du champ. Ces techniques fournissent des contraintes plus précises sur les paramètres du modèle cosmologique (Ajani et al. 2023). Cependant, avec leur précision croissante, ces méthodes deviennent sensibles aux effets systématiques qui étaient négligeables dans les analyses statistiques standard à deux points.
L'une de ces systématiques est le regroupement des sources, qui fait référence à la distribution non uniforme des galaxies observées dans les relevés de lentilles faibles. Plutôt que d'être uniformément distribuées, les galaxies observées suivent la densité de matière sous-jacente. Ce regroupement provoque une corrélation entre le signal de lentille et la densité du nombre de galaxies, conduisant à deux effets : (1) il module la distribution effective du décalage vers le rouge des galaxies, et (2) il corrèle le bruit de forme des galaxies avec le signal de lentille. Bien que cet effet soit négligeable pour les statistiques à deux points (Krause et al. 2021, Linke et al. 2024), il a un impact significatif sur les résultats des statistiques d'ordre élevé (Gatti et al. 2023). Par conséquent, une modélisation précise du regroupement des sources est essentielle pour appliquer ces nouvelles techniques aux données de lentilles faibles d'Euclid.
Dans ce projet, nous développerons un cadre d'inférence pour modéliser le regroupement de sources et évaluer son impact sur les contraintes cosmologiques à partir de statistiques d'ordre élevé. Les objectifs du projet sont :
1. Développer un cadre d'inférence qui remplit les champs de matière noire avec des galaxies, en modélisant avec précision la distribution non uniforme des galaxies d'arrière-plan dans les relevés de lentilles faibles.
2. Quantifier l'impact du regroupement de sources sur les paramètres cosmologiques à partir de transformées en ondelettes et d'analyses au niveau du champ.
3. Incorporer le regroupement de sources dans des émulateurs de la distribution de matière pour permettre une modélisation précise des données dans les analyses statistiques d'ordre élevé.
Grâce à ces développements, ce projet améliorera la précision des analyses cosmologiques et le réalisme de la modélisation des données, rendant possibles des analyses statistiques d'ordre élevé pour les données Euclid.

Détecter les premiers amas de galaxies de l'Univers dans les cartes du fond diffus cosmologique

Les amas de galaxies, situés aux nœuds de la toile cosmique, sont les plus grandes structures de l’Univers liées par la gravitation. Leur nombre et leur distribution spatiale sont très sensibles aux paramètres cosmologiques, comme la densité de matière dans l’Univers. Les amas constituent ainsi une sonde cosmologique performante. Elle a fait ses preuves ces dernières années (sondages Planck, South Pole Telescope, XXL, etc.) et promet de grandes avancées les prochaines années (sondages Euclid, Observatoire Vera Rubin, Simons Observatory, CMB-S4, etc.).
Le pouvoir cosmologique des amas de galaxies s’accroît avec la taille de l’intervalle de décalage vers le rouge (redshift z) couvert par le catalogue. Planck a détecté les amas les plus massifs de l’Univers dans 0<z<1 alors que SPT et ACT, plus sensibles mais couvrant moins de ciel, ont déjà détecté des dizaines d’amas entre z=1 et z=1.5 et quelques amas entre z=1.5 et z=2. La prochaine génération d’instruments (Simons Observatory à partir de 2025 et CMB-S4 à partir de 2034) permettra de détecter de façon routinière les amas dans 1<z<2 et observera les premiers amas formés dans l’Univers dans 2<z<3.
Seules les expériences étudiant le fond diffus cosmologique pourront observer le gaz chaud dans ces premiers amas à 2<z<3, grâce à l’effet SZ, du nom de ses deux découvreurs Sunyaev et Zel’dovich. Cet effet, dû aux électrons de grande énergie du gaz des amas, provoque une petite perturbation du spectre en fréquence du fond diffus cosmologique, ce qui le rend détectable. Mais le gaz n’est pas la seule composante émettrice dans les amas : des galaxies à l’intérieur des amas émettent aussi en radio ou en infrarouge ce qui contamine le signal SZ. Cette contamination est faible à z<1 mais augmente drastiquement avec le redshift. On s’attend à ce que ces émissions radio et infrarouge soient du même ordre de grandeur que le signal SZ dans l’intervalle 2<z<3.
Il faut donc essayer de comprendre et modéliser l’émission du gaz des amas en fonction du redshift, mais aussi celle des galaxies radio et infrarouge qu’ils contiennent pour pouvoir préparer la détection des premiers amas de galaxies de l’Univers.
L’Irfu/DPhP a développé les premiers outils de détection d’amas de galaxies dans les données du fond diffus cosmologique dans les années 2000. Ces outils ont été utilisés avec succès sur les données Planck et sur les données sol, comme celles de l’expérience SPT. Ils sont efficaces pour détecter les amas de galaxies dont l’émission est dominée par le gaz mais leur performance est inconnue dans le cas où l‘émission par les galaxies radios et infrarouges est importante.
Le travail de thèse consistera dans un premier temps à étudier et modéliser les émissions radio et infrarouge des galaxies des amas détectés dans les données du fond diffus cosmologique (Planck, SPT et ACT) en fonction du redshift.
Dans un second temps, on quantifiera l’impact de de ces émissions sur les outils de détection d’amas existants, dans le domaine de redshift actuellement sondé (0<z<2) puis dans le domaine de redshift futur (2<z<3).
Enfin, à partir de notre connaissance acquise sur ces émissions radio et infrarouge des galaxies dans les amas, on développera un nouvel outil d’extraction d’amas destiné aux amas à grand redshift (2<z<3) pour maximiser l’efficacité de détection et la maîtrise des effets de sélection, i.e. le nombre d’amas détecté par rapport à au nombre total sous-jacent.
Le doctorant rejoindra les collaborations Simons Observatory et CMB-S4.

Geometrie de la toile cosmique: du modele théorique aux observations

L'étude des filaments de la toile cosmique est un aspect primordial de la recherche moderne en cosmologie. Avec l'avènement des grands relevés cosmologiques extrêmement vastes et précis, notamment la mission spatiale Euclid, il devient possible d'étudier en détail la formation des structures cosmiques via l'instabilité gravitationnelle. En particulier, les aspects non linéaires de cette dynamique peuvent être étudiés d'un point de vue théorique avec l'espoir de détecter des signatures dans les observations. L'une des principales difficultés à cet égard est probablement de faire le lien entre la distribution observée des galaxies le long des filaments et la distribution de matière sous-jacente pour laquelle des modèles à partir de premiers principes sont connus. En s'appuyant sur des développements théoriques récents en théorie des perturbations gravitationnelles et en théorie des champs aléatoires contraints, le candidat retenu développera des prédictions pour des observables statistiques (comptages d'extrema, estimateurs topologiques, fonctions de corrélation d'extrema, voir e.g Pogosyan et al. 2009, MNRAS 396 ou Ayçoberry, Barthelemy, Codis 2024, A&A 686) de la toile cosmique, appliqués au champ discret de galaxies qui ne trace la matière totale que de manière biaisée. Ce modèle sera ensuite appliqué à l'analyse des données d'Euclid.

Top