Estimation impartiale du cisaillement pour Euclid avec modélisation automatiquement différentiable et accélérée par GPU

Le projet de thèse porte sur la mesure sans biais du cisaillement gravitationnel faible, un effet dû à la déviation de la lumière des galaxies par la matière présente sur la ligne de visée. Cette technique est essentielle pour étudier la matière noire, l’énergie noire et la gravité, et constitue un pilier de la mission spatiale Euclid, lancée en 2023. Les méthodes classiques de mesure des formes de galaxies introduisent des biais systématiques dans l’estimation du cisaillement. L’objectif de cette thèse est de développer une approche innovante de modélisation directe permettant d’inférer le cisaillement sans passer par la mesure de forme, en simulant des images de galaxies réalistes à l’aide d’architectures d’apprentissage profond. Le doctorant participera à l’adaptation de cette méthode aux données réelles d’Euclid, en intégrant la complexité du système de traitement des données (SGS) et en optimisant le calcul sur GPU et supercalculateurs. Ce travail s’inscrit dans un contexte très dynamique, coïncidant avec la première diffusion publique des données d’Euclid prévue pour 2026. Les résultats attendus sont une estimation du cisaillement plus précise et robuste, ouvrant la voie à des analyses cosmologiques de nouvelle génération.

De la toile cosmique aux galaxies : retracer l'accrétion de gaz à haut redshift par les observation et les simulations

Cette thèse vise à développer une compréhension intégrée des galaxies à haut redshift au sein de leurs structures à grande échelle. Nous étudierons comment les mécanismes de rétroaction (« feedback ») et l'activité nucléaire de ces galaxies affectent leur environnement, en couplant des données observationnelles avec des simulations cosmologiques.
Nos objectifs principaux sont de :
1. Faire progresser les capacités de diagnostic pour l'étude du gaz diffus.
2. Tester et valider les paradigmes actuels sur l'accrétion de gaz.
Notre travail observationnel s'appuiera sur de nouvelles données du télescope Keck et du Very Large Telescope concernant les halos Lyman-alpha autour de groupes et amas massifs à z>2, dont nous disposons déjà en grande partie. Nous intégrerons également les données de plus en plus nombreuses du télescope spatial James Webb (JWST) sur les mêmes cibles, afin de révéler les propriétés des galaxies et de leurs noyaux actifs (AGN).
Sur le plan théorique, nous utiliserons les résultats publics des simulations TNG100, HORIZON5 et CALIBRE pour comprendre l'évolution des galaxies, en tirant des enseignements des succès comme des échecs lors de la comparaison avec les observations. In fine, cela nous permettra de guider le développement de nouvelles simulations haute fidélité du milieu circum-galactique, conçues spécifiquement pour contraindre les processus d'accrétion de gaz.
Cette recherche soutient directement notre objectif à long terme de nous préparer à l'exploitation de BlueMUSE, un nouvel instrument en cours de construction pour le VLT auquel nous participons. Elle permettra également de répondre à l'une des questions ouvertes majeures en astrophysique, telle qu'identifiée par le rapport décennal Astro2020.

Méthode de réduction de dimensionalité appliquée à la théorie ab initio à N corps "coupled cluster" déformée

La description théorique des premiers principes, i.e. de manière dite ab initio, des noyaux atomiques contenant plus de 12 nucléons n’est devenue possible que récemment grâce aux développements cruciaux de la théorie à N corps et à la disponibilité d’ordinateurs hautes performances de plus en plus puissants. Ces techniques ab initio sont appliquées avec succès pour étudier la structure des noyaux, en partant des isotopes les plus légers et pour atteindre aujourd’hui tous les noyaux de masse moyenne contenant jusqu’à environ 80 nucléons. L’extension à des systèmes encore plus lourds nécessite des avancées décisives du point de vue du cout de stockage et du temps de calcul induits par les méthodes à N corps disponibles. Dans ce contexte, l’objectif de la thèse est de développer la méthode de réduction de dimensionalité fondée sur la factorisation des tenseurs mis en jeu dans le cadre de la théorie à N corps non perturbative dite de coupled cluster déformée (dCC). Le travail proposé exploitera les dernières avancées en théorie nucléaire, y compris l’utilisation des potentiels nucléaires issus de la théorie effective des champs chirale et des techniques du groupe de renormalisation, ainsi que des ressources et des codes de calcul haute performance.

L'apprentissage automatique pour l'analyse cosmologique des images de lentille gravitationnelle faible provenant du satellite Euclid

L'effet de lentille gravitationnelle faible, la distorsion des images de galaxies à haut redshift due aux structures de matière au long de la ligne de visée à grande échelle, est l'un des outils les plus prometteurs de la cosmologie pour sonder le secteur sombre de l'Univers. Le satellite spatial européen Euclide mesurera les paramètres cosmologiques avec une précision sans précédent. Pour atteindre cet objectif ambitieux, un certain nombre de sources d’erreurs systématiques doivent être quantifiées et comprises. L’une des principales origines des biais est liée à la détection des galaxies. Il existe une forte dépendance à la densité de galaxies locale et au fait que l'émission lumineuse de la galaxie chevauche les objets proches. Si elles ne sont pas traitées correctement, de telles galaxies « mélangées » (blended) biaiseront fortement toute mesure ultérieure de distorsions d'image à faible lentille.
L'objectif de cette thèse est de quanti?er et de corriger les biais de détection des lentilles faibles, notamment dus au mélange. À cette fin, des algorithmes modernes d’apprentissage automatique et profond, y compris des techniques d’auto-différenciation, seront utilisés. Ces techniques permettent une estimation très efficace de la sensibilité des biais liés aux propriétés des galaxies et des levés sans qu'il soit nécessaire de créer un grand nombre de simulations. L'étudiant effectuera des analyses d'inférence de paramètres cosmologiques des données de lentille faible d'Euclide. Les corrections des biais développées dans cette thèse seront inclutes à prior dans la mesure de formes de galaxies, où à postérior â l'aide de paramètres de nuisance, afin d'obtenir des mesures de paramètres cosmologiques avec une fiabilitlé requise pour une cosmologie de précision.

Inférence des paramètres cosmologiques à l’aide de prédictions théoriques des statistiques en ondelettes.

Lancé en 2023, le satellite Euclid observe le ciel dans les longueurs d'onde optiques et infrarouges pour cartifier la structure à grande échelle de l'Univers avec une précision inédite. Un pilier fondamental de sa mission est la mesure du cisaillement gravitationnel faible — de subtiles distorsions dans la forme des galaxies lointaines. Ce phénomène constitue une sonde cosmologique puissante, capable de retracer l'évolution de la matière noire et d'aider à distinguer les théories sur l'énergie noire de celles de la gravité modifiée. Traditionnellement, les cosmologues analysent les données de cisaillement faible à l'aide de statistiques du second ordre (comme le spectre de puissance) couplées à un modèle de vraisemblance gaussien. Cette approche établie rencontre cependant des défis significatifs :
- Perte d'information : Les statistiques du second ordre ne capturent toute l'information disponible que si la distribution de matière sous-jacente est gaussienne. En réalité, la toile cosmique est une structure complexe, composée d'amas, de filaments et de vides, ce qui rend cette approche intrinsèquement incomplète.
- Covariance complexe : La méthode nécessite l'estimation d'une matrice de covariance, qui est à la fois dépendante de la cosmologie et non-gaussienne. Ceci exige de réaliser des milliers de simulations numériques de type N-corps, extrêmement coûteuses en calcul, pour chaque modèle cosmologique, un effort souvent prohibitif.
- Effets systématiques : L'intégration des complications observationnelles — telles que les masques de survey, l'alignement intrinsèque des galaxies, et les effets de rétroaction baryonique — dans ce cadre théorique est notoirement difficile.

Face à ces limitations, un nouveau paradigme a émergé : l'inférence sans vraisemblance par modélisation directe (forward modelling). Cette technique contourne le besoin d'une matrice de covariance en comparant directement les données observées à des observables synthétiques générés par un modèle direct (forward model). Ses avantages sont profonds : elle élimine le fardeau de stockage et de calcul lié aux vastes ensembles de simulations, intègre naturellement l'information statistique d'ordre supérieur, et permet d'inclure de manière transparente les effets systématiques. Cependant, cette nouvelle méthode présente ses propres obstacles : elle demande des ressources de calcul (GPU) immenses pour traiter des surveys de l'envergure d'Euclide, et ses conclusions ne sont aussi fiables que les simulations sur lesquelles elle s'appuie, ce qui peut mener à des débats circulaires si les simulations et les observations divergent.

Une percée récente (Tinnaneni Sreekanth, 2024) ouvre une voie prometteuse. Ces travaux fournissent le premier cadre théorique permettant de prédire directement les principales statistiques en ondelettes des cartes de convergence — exactement le type de cartes qu'Euclide produira — pour un jeu de paramètres cosmologiques donné. Il a été démontré dans Ajani et al. (2021) que la norme L1 des coefficients en ondelettes est extrêmement puissante pour contraindre les paramètres cosmologiques. Cette innovation promet d'exploiter la puissance des statistiques non-gaussiennes avancées sans le surcoût computationnel traditionnel, ouvrant potentiellement la voie à une nouvelle ère de cosmologie de précision.
Nous avons démontré que cette prédiction théorique peut être utilisée pour construire un émulateur hautement efficace (Tinnaneni Sreekanth et al., 2025), accélérant considérablement le calcul de ces statistiques non-gaussiennes. Il est crucial de noter qu'à son stade actuel, cet émulateur ne fournit que la statistique moyenne et n'inclut pas la variance cosmique. En l'état, il ne peut donc pas encore être utilisé seul pour une inférence statistique complète.

Objectif de cette thèse de doctorat:
Cette thèse de doctorat vise à révolutionner l'analyse des données de cisaillement faible en construisant un cadre complet et intégré pour l'inférence cosmologique sans vraisemblance. Le projet commence par adresser le défi fondamental de la stochasticité : nous calculerons d'abord la covariance théorique des statistiques en ondelettes, fournissant une description mathématique rigoureuse de leur incertitude. Ce modèle sera ensuite intégré dans un générateur de cartes stochastiques, créant ainsi des données synthétiques réalistes qui capturent la variabilité intrinsèque de l'Univers.
Pour garantir la robustesse de nos résultats, nous intégrerons une suite complète d'effets systématiques — tels que le bruit, les masques observationnels, les alignements intrinsèques et la physique baryonique — dans le modèle direct. Le pipeline complet sera intégré et validé au sein d'un cadre d'inférence basée sur les simulations, en testant rigoureusement sa capacité à retrouver des paramètres cosmologiques non biaisés. L'aboutissement de ce travail sera l'application de notre outil validé aux données de cisaillement faible d'Euclide, où nous exploiterons l'information non-gaussienne pour poser des contraintes compétitives sur l'énergie noire et la gravité modifiée.

References
V. Ajani, J.-L. Starck and V. Pettorino, "Starlet l1-norm for weak lensing cosmology", Astronomy and Astrophysics,  645, L11, 2021.
V. Tinnaneri Sreekanth, S. Codis, A. Barthelemy, and J.-L. Starck, "Theoretical wavelet l1-norm from one-point PDF prediction", Astronomy and Astrophysics,  691, id.A80, 2024.
V. Tinnaneri Sreekanth, J.-L. Starck and S. Codis, "Generative modeling of convergence maps based in LDT theoretical prediction", Astronomy and Astrophysics,  701, id.A170, 2025.

Cacracterisation et calibration de détecteurs cryogéniques à l'échelle de 100 eV pour la détection de la diffusion cohérente des neutrinos (CEvNS)

DESCRIPTIONS:

L’expérience NUCLEUS [1] cherche à détecter les neutrinos de réacteur via la diffusion élastique cohérente neutrino-noyau (CEvNS). Prédit en 1974 et mis en évidence pour la première fois en 2017, ce processus donne accès à des tests inédits du modèle standard à basse énergie. La cohérence de la diffusion sur l’ensemble du noyau augmente de plusieurs ordres de grandeurs sa section efficace ce qui en fait également une opportunité pour la surveillance des réacteurs par les neutrinos. Le dispositif expérimental de NUCLEUS est en cours d’installation auprès des réacteurs EDF de Chooz (Ardennes, France) qui sont une source intense de neutrinos. Le seul signal physique d’un événement CEvNS est l’infime recul du noyau cible, avec une énergie très faible, inférieure à 1 keV. Pour le détecter NUCLEUS utilise des cristaux de CaWO4 d’environ 1 g, placés dans un cryostat qui les refroidis à une température de 15 mK. Le recul du noyau provoque des vibrations du réseau cristallin équivalentes à une élévation de la température de ~100 µK, mesurée à l’aide d’un capteur Transition Edge Sensor (TES) déposé sur le cristal. Ces détecteurs permettent d’atteindre d’excellentes résolutions en énergie de seulement quelques ~eV et des seuils de détection de l’ordre de ~10 eV [2]. Le dispositif expérimental de NUCLEUS a été testé et validé en 2024 à TU-Munich [3] et la prisse de données à Chooz commencera à l’été 2026, en même temps que la thèse. Une première contribution portera sur l’acquisition des données sur site réacteur et leur analyse. Plus spécifiquement, l’étudiant(e) sera en charge de la caractérisation des détecteurs cryogéniques en CaWO4 déployés : stabilité, résolution en énergie, calibration et bruit de fond intrinsèque au cristal.

La question de la calibration à l’échelle sub-keV est un point crucial des expériences de CEvNS (et de matière noire). Or jusqu’à présent il était très difficile de générer des reculs nucléaires d’énergie connue pour caractériser la réponse des détecteurs. La méthode CRAB [4,5] répond à ce besoin en utilisant la réaction de capture de neutrons thermiques (énergie de 25 meV) sur les noyaux constituant le détecteur cryogénique. Le noyau composé résultant a une énergie d’excitation bien connue, l’énergie de séparation d’un neutron, comprise entre 5 et 8 MeV selon les isotopes. Dans le cas où il se désexcite en émettant un seul photon gamma, le noyau va reculer avec une énergie qui est aussi parfaitement connue car donnée par la cinématique à deux corps. Un pic de calibration, dans la gamme recherchée de quelques 100 eV, apparaît alors dans le spectre en énergie du détecteur cryogénique. Une première mesure réalisée, en 2022, avec un détecteur en CaWO4 de l’expérience NUCLEUS et une source de neutrons commerciale (252Cf) a permis de valider la méthode [6].

La deuxième partie de la thèse s’inscrit dans la phase « haute précision » de ce projet qui consiste à réaliser des mesures avec un faisceau pur de neutrons thermiques du réacteur TRIGA-Mark-II à Vienne (TU-Wien, Autriche). Le dispositif expérimental de calibration a été installé et caractérisé avec succès en 2025 [7]. Il consiste en un cryostat contenant les détecteurs cryogéniques à caractériser, entouré de larges cristaux de BaF2 pour une détection en coïncidence du recul nucléaire et du rayon gamma qui a induit ce recul. L’ensemble est placé directement sur l’axe du faisceau qui fournit un flux d’environ 450 n/cm2/s. Cette méthode de coïncidence réduira significativement le bruit de fond et permettra d’étendre la méthode CRAB à un plus large domaine d’énergie et aux matériaux constitutifs de la plupart des détecteurs cryogéniques. Nous attendons de ces mesures une caractérisation unique de la réponse des détecteurs cryogéniques, dans un domaine d’intérêt pour la recherche de la matière noire légère et la diffusion cohérente de neutrinos. En parallèle de la mesure de reculs nucléaires, l’installation d’une source de rayons X de basse énergie dans le cryostat permettra de générer des reculs électroniques ce qui mènera à la comparaison directe de la réponse du détecteur à des dépôts d’énergie sous le keV produits par des reculs nucléaires et d’électrons.

L’arrivée en thèse de l’étudiant(e) coïncidera avec la finalisation du programme de mesure sur les détecteurs en CaWO4 et Al2O3 de NUCLEUS et avec le début du programme de mesures sur le Ge (détecteur du projet TESSERACT) ainsi que sur le Si (détecteur du projet BULLKID).
La haute précision permettra également l’ouverture d’une fenêtre de sensibilité à des effets fins couplant de la physique nucléaire (temps de désexcitation du noyau) et de la physique du solide (temps de recul du noyau dans la matière, création de défauts cristallins lors du recul d’un noyau) [8].

L’étudiant(e) sera fortement impliqué dans tous les aspects de l’expérience : la simulation, l’analyse et l’interprétation des résultats obtenus.

ETAPES DU TRAVAIL:

L’étudiant(e) participera activement aux prises de données et à l’analyse des premiers résultats des détecteurs cryogéniques en CaWO4 de NUCLEUS à Chooz. Ce travail sera réalisé en collaboration avec les groupes des départements de physique nucléaire (DPhN), de physique des particules (DPhP) du CEA-Saclay et avec l’équipe de TU-Munich. Il commencera par une prise en main du code d’analyse CAIT pour les détecteurs cryogéniques. L’étudiant(e) étudiera plus spécifiquement les aspects de calibration via la réponse des détecteurs aux reculs électroniques issus de pulses de photons optiques injectés par fibres et de rayons X de fluorescence induits par les rayons cosmiques. Une fois cette calibration établie deux types de bruit de fond seront étudiés : les reculs nucléaires induits dans la gamme du keV par les neutrons rapides cosmogéniques et un bruit fond à basse énergie, appelé Low Energy Excess (LEE), intrinsèque au détecteur. La comparaison en les spectres expérimentaux et simulés du bruit de fond de neutrons rapides sera discutée à la lumière des différences entre réponses nucléaires et électroniques mesurées dans le projet CRAB. Les longues périodes de prises de données sur le site de Chooz seront mises à profit pour étudier l’évolution temporelle du bruit LEE. Ce travail se fera dans le cadre d’une collaboration en cours avec des spécialistes de la physique des matériaux de l'Institut des Sciences Appliquées et de la Simulation (CEA/ISAS) pour comprendre l’origine du LEE, qui reste une question ouverte majeure dans la communauté des détecteurs cryogéniques.

Les compétences d’analyse acquises sur NUCLEUS seront ensuite mises à profit pour les campagnes de mesures CRAB de haute précision prévues en 2027 auprès du réacteur TRIGA (TU-Wien) avec des détecteurs en Ge et Si.L’étudiant(e) sera fortement impliqué(e) dans la mise en place de l’expérience, dans la prise de données et l’analyse des résultats. Ces mesures prévues sur le Ge dans les canaux phonon et ionisation, ont le potentiel de lever l’ambiguïté actuelle sur le rendement d’ionisation des reculs nucléaires à basse énergie, qui sera un facteur déterminant de la sensibilité des expériences.

La haute précision de la calibration sera également exploitée pour étudier des effets fins de physique nucléaire et du solide (effets de timing et de création de défauts cristallins par le recul du noyau dans le détecteur). Cette étude sera réalisée en synergie avec les équipes de l’IRESNE et de l’ISAS au CEA qui nous fournissent des simulations détaillées des cascades gamma de désexcitation nucléaire et des simulations de dynamique moléculaire pour le recul des noyaux dans la matière.

A travers ce travail l’étudiant(e) aura une formation complète de physicien(ne) expérimentateur(trice) avec de fortes composantes de simulation et d’analyse de données, mais aussi un apprentissage des techniques de cryogénie dans le cadre de la mise en service des détecteurs de NUCLEUS et CRAB. Les contributions proposées mèneront à plusieurs publications durant la thèse avec une forte visibilité dans les communautés de la diffusion cohérente de neutrino et de la recherche de matière noire.

Au sein du CEA il (elle) bénéficiera du caractère exceptionnellement transverse de ce projet qui met déjà en interaction régulière les communautés de physique nucléaire, physique des particules et physique de la matière condensée.

COLLABORATIONS:

NUCLEUS: Allemagne (TU-Munich, MPP), Autriche (HEPHY, TU-Wien), Italie (INFN), France (CEA-Saclay).
CRAB: Allemagne (TU-Munich, MPP), Autriche (HEPHY, TU-Wien), Italie (INFN), France (CEA-Saclay, CNRS-IJCLab, CNRS-IP2I, CNRS-LPSC).

REFERENCES:

[1] NUCLEUS Collaboration, Exploring CE?NS with NUCLEUS at the Chooz nuclear power plant, The European Physical Journal C 79 (2019) 1018.
15, 48, 160, 174
[2] R. Strauss et al., Gram-scale cryogenic calorimeters for rare-event searches, Phys. Rev. D 96 (2017) 022009. 16, 18, 78, 174
[3] H. Abele et al., Particle background characterization and prediction for the NUCLEUS reactor CE?NS experiment, https://arxiv.org/abs/2509.03559
[4] L. Thulliez, D. Lhuillier et al. Calibration of nuclear recoils at the 100 eV scale using neutron capture, JINST 16 (2021) 07, P07032
(https://arxiv.org/abs/2011.13803)
[5]https://irfu.cea.fr/dphp/Phocea/Vie_des_labos/Ast/ast.php?id_ast=4970
[6] H. Abele et al., Observation of a nuclear recoil peak at the 100 eV scale induced by neutron capture, Phys. Rev. Lett. 130, 211802 (2023) (https://arxiv.org/abs/2211.03631)
[7] H.Abele et al., The CRAB facility at the TUWien TRIGA reactor: status and related physics program, (https://arxiv.org/abs/2505.15227)
[8] G. Soum-Sidikov et al., Study of collision and ?-cascade times following neutron-capture processes in cryogenic detectors Phys. Rev. D
108, 072009 (2023) (https://arxiv.org/abs/2305.10139)

Recherche d’axions dans l’expérience SuperDAWA avec aimants supraconducteurs et radiométrie hyperfréquence

Les axions sont des particules hypothétiques qui pourraient à la fois expliquer un problème fondamental de la physique des interactions fortes (la conservation de la symétrie CP en QCD) et constituer une part importante de la matière noire. Leur détection directe représente donc un enjeu majeur en physique fondamentale et en cosmologie.

L’expérience SuperDAWA, en cours de construction au CEA Saclay, repose sur l’utilisation d’aimants supraconducteurs et d’un radiomètre hyperfréquence placé dans un cryostat cryogénique. Ce dispositif permettra de convertir des axions potentiels en ondes radio mesurables, dont la fréquence est directement liée à leur masse.

Le travail de thèse proposé se partagera entre modélisation numérique et participation à l’expérience. L’étudiant·e développera un modèle complet intégrant les champs magnétiques, la propagation du signal radio et la réponse de l’électronique, avec une validation progressive par des mesures réelles. Une fois l’expérience opérationnelle, le·la doctorant·e participera aux campagnes de prises de données et à leur analyse.

Ce projet offrira l’opportunité unique de contribuer à une expérience de pointe en physique expérimentale, avec des retombées directes sur la recherche mondiale de matière noire.

Mesures de précision des oscillations de neutrinos et recherche de la violation de CP avec les expériences T2K et Hyper-Kamiokande

L’étude des oscillations de neutrinos est entrée dans une ère de précision, portée par des expériences à longue ligne de base comme T2K, qui comparent les signaux de neutrinos dans des détecteurs proches et lointains pour sonder des paramètres clés, dont une possible violation de la symétrie charge-parité (CPV). Détecter la CPV chez les neutrinos pourrait aider à expliquer l’asymétrie matière–antimatière de l’Univers. Les résultats de T2K publiés en 2020 ont fourni de premiers indices de CPV, mais restent limités par la statistique. Pour améliorer la sensibilité, T2K a connu d’importantes mises à niveau : remplacement de la partie la plus en amont de son détecteur proche par une nouvelle cible, augmentation de la puissance de l’accélérateur (jusqu’à 800 kW en 2025, avec un objectif de 1,3 MW d’ici 2030). La prochaine génération, l’expérience Hyper-Kamiokande (Hyper-K), qui débutera en 2028, réutilisera le faisceau et le détecteur proche de T2K, mais avec un nouveau détecteur lointain 8,4 fois plus grand que Super-Kamiokande, augmentant considérablement la statistique. Le groupe IRFU a joué un rôle clé dans la mise à niveau du détecteur proche et se concentre désormais sur l’analyse des données, essentielle pour maîtriser les incertitudes systématiques, cruciales à l’ère des hautes statistiques d’Hyper-K. Le travail de thèse proposé porte sur l’analyse des nouvelles données du détecteur proche : conception de nouvelles sélections d’échantillons tenant compte des protons et neutrons de faible impulsion du neutrino, et l'amélioration des modèles d’interaction neutrino–noyau afin d’optimiser la reconstruction de l’énergie. Le second objectif est de transférer ces améliorations à Hyper-K, afin d’orienter les futures analyses d’oscillation. L’étudiant contribuera également à la construction et à la calibration d’Hyper-K (tests d’électronique au CERN, installation au Japon).

Tester le modèle standard dans le secteur du quark top et du boson de Higgs de façon innovante avec plusieurs leptons dans l’expérience ATLAS au LHC

Le LHC collisionne des protons à 13.6 TeV, produisant un volume massif de données pour étudier des processus rares et rechercher de la nouvelle physique. La production d’un boson de Higgs en association avec un quark top unique (tH) dans l’état multi-leptonique (2 leptons de même signe ou 3 leptons chargés) est particulièrement prometteuse, mais complexe à analyser à cause des neutrinos non détectés et des leptons factices. Le processus tH est d’autant plus intéressant que sa très faible section efficace dans le Modèle Standard résulte d’une interférence destructive subtile entre les diagrammes faisant intervenir le couplage du Higgs au boson W et celui du Higgs au quark top. De ce fait, de petites déviations par rapport aux prédictions du Modèle Standard peuvent avoir un impact important sur son taux de production, faisant de tH une sonde sensible de nouvelle physique. La mesure de la section efficace tH reste délicate car les processus ttH et ttW ont des topologies proches et des sections efficaces beaucoup plus grandes, nécessitant une extraction simultanée pour obtenir un résultat fiable et évaluer correctement les corrélations entre signaux. ATLAS a observé un excès modéré de tH avec les données du Run 2 (2.8 s), rendant cruciale l’analyse rapide des données du Run 3 avec une prise en compte explicite de ces corrélations. La thèse exploitera des algorithmes d’intelligence artificielle basés sur des architectures transformers respectant certaines symétries fondamentales pour reconstruire la cinématique des événements et extraire des observables sensibles à la nature CP du couplage Higgs-top. Dans un second temps, une approche globale pourra traiter simultanément les processus ttW, ttZ, ttH, tH et 4 tops, à la recherche de couplages anomaux, y compris ceux violant la symétrie CP, dans le cadre de la théorie effective du Modèle Standard (SMEFT). Cette étude permettra la première mesure complète de tH dans le canal multi-lepton avec les données du Run 3 et ouvrira la voie à une analyse globale des processus rares et des couplages anomaux au LHC dans ce canal.

Méga-analyse cosmologique multi-sonde du relevé DESI: inférence bayésienne standard et au niveau du champ

Les grandes structures de l’Univers (LSS) sont sondées par plusieurs observables : distribution des galaxies, lentillage faible des galaxies et du fond diffus cosmologique (CMB). Chacune permet de tester la gravité à grande échelle et l’énergie noire, mais leur analyse jointe assure le meilleur contrôle des paramètres de nuisance et fournit les contraintes cosmologiques les plus précises.

Le relevé spectroscopique DESI cartographie la distribution 3D de galaxies. À la fin de son relevé nominal de 5 ans cette année, il aura observé 40 millions de galaxies et quasars (dix fois plus que les relevés précédents) sur un tiers du ciel, jusqu’à un décalage spectral de z = 4.2. En combinant ses données avec celles du CMB et des supernovae, la collaboration a mis en évidence une éventuelle déviation de l’énergie noire par rapport à la constante cosmologique.

Pour tirer pleinement parti de ces données, DESI a lancé une "méga-analyse" combinant galaxies, lentillage de galaxies (Euclid, UNIONS, DES, HSC, KIDS) et du CMB (Planck, ACT, SPT), visant à produire les contraintes les plus précises jamais obtenues sur l’énergie noire et la gravité. L’étudiant jouera un rôle clé dans le développement et la mise en oeuvre de cette chaîne d’analyse multi-sonde.

L’analyse standard compresse les observations en spectre de puissance pour l’inférence cosmologique, mais cette approche reste sous-optimale. L’étudiant développera une alternative, dite analyse au niveau du champ, qui consiste à ajuster directement le champ de densité et de lentillage observé, simulé à partir des conditions initiales de l’Univers. Ceci constitue un problème d’inférence bayésienne en très haute dimension, qui sera traité à l’aide d’échantillonneurs récents basés sur le gradient et de bibliothèques GPU avec différentiation automatique. Cette méthode de pointe sera validée en parallèle avec l’approche standard, ouvrant la voie à une exploitation maximale des données DESI.

Top