De la physique Few-Body aux collisions d'antinoyaux
Sachant que les rares antinoyaux présents dans l'espace pourraient contenir des informations sur des mécanismes de production exotiques (e.g. annihilation ou désintégration de la matière noire), leur étude est devenue un domaine à fort impact, reliant physique nucléaire, astroparticule et mesures (accélérateurs). Cependant, l'interprétation des recherches actuelles et futures sur les antinoyaux est limitée par le manque de données nucléaires : les processus de diffusion à basse énergie, d'annihilation et de désintégration des antinoyaux sur la matière ordinaire sont difficiles à mesurer directement. Cela motive une stratégie fondée sur la théorie. Notre projet adopte une approche "bottom-up" : description ab initio des systèmes nucléaires et des collisions d'antimatière les plus simples à basse énergie, identification des mécanismes sous-jacents d'annihilation à plusieurs corps, puis propagation de ces contraintes à la modélisation des interactions à l'échelle du noyau et à des énergies plus élevées. Nous visons à la fois à approfondir notre compréhension des interactions matière-antimatière au niveau nucléaire et à fournir des données validées pour les outils de simulation utilisés en astroparticules et pour les accélérateurs.
Transfert entre les deux champs : nous simplifions le problème pour le ramener au cas le plus simple pouvant être traité par la méthode ab initio, car dans INCL (Intra NuclearCascade of Liège), l'annihilation de l'antideuton est identifiée comme une annihilation avec un quasi-deuton dans un noyau cible. Deux questions clés doivent être abordées en partie à l'aide de calculs ab initio : 1. Quel quasi-deutéron interagira ? 2. Quel canal de sortie en résultera ?
Modélisation de la distribution du redshift des galaxies lentillées d'Euclid pour des analyses au niveau du champ
La mission Euclid fournira des données sur les lentilles gravitationnelles faibles avec une précision sans précédent, ce qui pourrait révolutionner notre compréhension de l'énergie noire et de la croissance des structures cosmiques. Pour en extraire toute la richesse informative, il faut aller au-delà des analyses standard. Afin d'exploiter au mieux ces données, le projet OCAPi analysera les cartes de lentille gravitationnelle d'Euclid directement au niveau des pixels. Cette approche, connue sous le nom d'inférence au niveau du champ, permet de capturer toutes les informations et d'obtenir des contraintes jusqu'à 5 fois plus précises sur les paramètres cosmologiques (Porqueres et al. 2022, 2023).
Cette précision accrue nécessite toutefois une modélisation précise des données. L'un des principaux défis de l'étalonnage dans les relevés de lentilles gravitationnelles faibles est la distribution des galaxies lentillées en fonction du redshift. Les méthodes d'étalonnage actuelles ont été conçues pour les analyses standard et peuvent ne pas être suffisamment précises pour les techniques au niveau du champ. Il est essentiel de quantifier les exigences de précision et de développer des méthodes capables de les atteindre afin de permettre l'analyse au niveau du champ des données d'Euclid et de libérer tout le potentiel scientifique.
L'objectif de ce projet de doctorat est de développer un nouvel échantillonneur de redshifts pour la lentille gravitationnelle faible, conçu pour répondre aux exigences de précision de l'inférence au niveau du champ. Cet échantillonneur combinera des modèles physiques de populations de galaxies avec des techniques d'apprentissage automatique flexibles. La thèse contribuera à maximiser le potentiel des données de lentille gravitationnelle faible d'Euclid et à faire progresser notre compréhension de la formation des structures cosmiques.
Étude de l’écoulement elliptique des hadrons charmés dans les collisions ions lourds avec LHCb?
Le projet FLOALESCENCE s’inscrit dans le cadre de l’étude expérimentale de la matière de QCD et de la transition de phase entre plasma de quarks et de gluons (QGP) et matière hadronique.?Ce plasma, formé quelques microsecondes après le Big Bang, peut être recréé aujourd’hui dans les collisions plomb-plomb ultra-relativistes au Grand collisionneur de hadrons (LHC).
L’objectif du projet est de comprendre comment les quarks charmés se hadronisent lorsque le QGP se refroidit. Le doctorant travaillera au sein de l’expérience LHCb, un détecteur unique par sa couverture en rapidité avant, permettant d’explorer une région de l’espace des phases encore inexplorée.
Le travail consistera à mesurer pour la première fois à LHCb l’écoulement elliptique (v2) des baryons charmés (?c+) et des mésons (D0), afin de tester les modèles de coalescence et de caractériser le degré de thermalisation des quarks charmés dans le milieu QGP.
Objectifs et missions:
- Extraire et analyser les signaux ?c+ et D0 dans les nouvelles données Pb–Pb enregistrées par LHCb (2024–2025).
- Développer et appliquer une méthode d’analyse innovante de l’écoulement elliptique, fondée sur la reformulation de la méthode des Zéros de Lee–Yang.
- Mettre en place une métrique de multiplicité d’événement pour relier les observables de flux à la densité d’énergie du système.
- Comparer les résultats aux prédictions théoriques et aux mesures des autres expériences du LHC (ALICE, CMS).
Rédiger des publications scientifiques et présenter les résultats lors de conférences internationales.
Le/la doctorant.e acquerra :
- Une maîtrise avancée des outils d’analyse de données du LHCb (ROOT, Python, C++), y compris les techniques de classification par apprentissage automatique.
- Une expertise en physique des hautes énergies et en QCD, notamment sur les propriétés du plasma de quarks et de gluons et les phénomènes collectifs.
- Des compétences en analyse statistique et traitement de grands volumes de données.
- Une solide expérience du travail collaboratif international (au sein de la collaboration LHCb).
- Une formation polyvalente valorisable tant dans la recherche académique que dans les domaines de la data science, de l’ingénierie ou de la modélisation physique.
Sonder l’information quantique avec le quark top au LHC
Ce projet de doctorat vise à explorer la nature quantique de la production de paires de quarks top au LHC, en étudiant les corrélations de spin et les observables liées à l’intrication quantique dans les données enregistrées par l’expérience ATLAS. Les récentes avancées ayant permis d’observer l’intrication dans les événements top–antitop ont ouvert une nouvelle fenêtre sur l'étude de la structure quantique des interactions fondamentales, faisant du LHC une machine capable de sonder l’information quantique à l’échelle du TeV. La thèse se concentrera sur la reconstruction de l’état quantique des paires de quarks top à partir des données du Run 3 d’ATLAS, avec une attention particulière portée à l’extraction des corrélations de spin et des observables sensibles à l’intrication quantique dans des topologies à haute impulsion. En améliorant les stratégies de reconstruction et en évaluant soigneusement les effets du détecteur, l’objectif est de déterminer les propriétés quantiques de la paire de quarks top avec précision et ainsi de contribuer à comprendre ce que l’information quantique peut apporter à notre connaissance des particules élémentaires.
RECHERCHES D’EMISSION DIFFUSES EN RAYONS GAMMA DE TRES HAUTE ENERGIE ET PHYSIQUE FONDAMENTALE AVEC H.E.S.S. ET CTAO
Les observations en rayons gamma de très hautes énergies (THE, E>100 GeV) sont cruciales pour la compréhension des phénomènes non-thermiques les plus violents à l’œuvre dans l’Univers. La région centre de la Voie Lactée est une région complexe et active en rayons gamma de THE. Parmi les sources gamma de THE se trouvent le trou noir supermassif Sagittarius A* au coeur de la Galaxie, des vestiges de supernova ou encore des régions de formation d'étoiles. Le centre Galactique (CG) abrite un un accélérateur de rayons cosmiques jusqu’à des énergies du PeV, des émissions diffuses du GeV au TeV dont le « Galactic Center Excess » (GCE) dont l’origine est encore inconnue, de potentielles sources variables au TeV, ainsi que possibles populations de sources non encore résolues (pulsars millisecondes, trous noirs de masses intermédiaires). Le CG devrait être la source la plus brillante d’annihilations de
particules massives de matière noire de type WIMPs. Des candidats matière noire plus légers, les particules de type axions (ALP), pourraient se convertir en photons, et vice versa, dans les champs magnétiques laissant une empreinte d’oscillation dans les spectres gamma de noyaux actifs de galaxies (AGN).
L'observatoire H.E.S.S. situé en Namibie est composé de cinq télescopes imageurs à effet Cherenkov atmosphérique. Il est conçu pour détecter des rayons gamma de quelques dizaines de GeV à plusieurs dizaines de TeV. La région du Centre Galactique est observée par H.E.S.S. depuis vingt ans. Ces observations ont permis de détecter le premier Pevatron Galactique et de poser les contraintes les plus fortes à ce jour sur la section efficace d'annihilation de particules de matière noire dans la plage en masse du TeV. Le futur observatoire CTA sera déployé sur deux sites, l'un à La Palma et l'autre au Chili. Ce dernier composé de plus de 50 télescopes permettra d'obtenir un balayage sans précédent de la région sur Centre Galactique.
Le travail proposé portera sur l'analyse et l'interprétation des observations H.E.S.S. conduites dans la région du Centre Galactique pour la recherche d'émission diffuses (populations de sources non résolues, matière noire massive) ainsi que des observations menées vers un sélection de noyaux actifs de galaxie pour la recherche d'ALPs constituant la matière noire. Ces nouveaux cadres d'analyses seront implémentés pour les analyses CTA à venir. Une implication dans la commissioning des premiers MSTs au Chili ainsi que dans l’analyse des premières données scientifiques sont attendues.
Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable
Contexte
L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.
La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.
Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.
Projet de doctorat
Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.
Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.
Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.
Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.
La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.
Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.
Références
[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].
Étude de la fission de l’uranium-235 induite par des neutrons de 0.5 à 40 MeV à NFS-SPIRAL2 avec le spectromètre FALSTAFF et le code FIFRELIN
Le projet présenté ici a un objectif double. Il s’agira pour notre équipe de réaliser (étalonnage, montage, prise et analyse des données) une première expériénce avec le détecteur FALSTAFF dans sa configuration à deux bras de détection. Une telle géométrie permettra la mesure en coïncidence des deux fragments émis par la fission déclenché par des neutrons rapides (entre 0,5 et 40 MeV environ sur la ligne de neutrons de SPIRAL2-NFS). L’utilisation de la cinématique directe permet de contrôler évènement par évènement la réaction détectée, notamment l’énergie d’excitation du noyau qui fissionne par la détermination de l’énergie cinétique du neutron incident.
Pour cette première expérience, nous employerons une cible de 235U, dont la fission dans les réacteurs nucléaires est au coeur de leur principe de production d’énergie. Ainsi, une compréhension extrêmement détaillée de la fission de ce noyau déclenchée par les neutrons est indispensable. Cette mesure complète qui inclura non seulement l’identification des deux fragments de fission mais également la détermination de leur cinématique sera pratiquement une première scientifique dans la méthode de la cinématique directe où le faisceau de neutrons et dirigé sur la cible d’uranium. Pour permettre cette expérience, recommandée par le comité du GANIL et qui se fera en 2026, nous avons fait évoluer le spectromètre FALSTAFF améliorer ses performances de détection, notamment grâce au financement que la région Normandie nous a octroyé. Ce travail expérimental se complètera d’un travail détaillé sur un modèle théorique de la fission développé par nos collaborateurs du CEA-Cadarache auquel nos données avec FALSTAFF serviront de point de comparaison précis. Le test de ce modèle sur des données aussi complètes que celles de FALSTAFF n’a encore pas été réalisé.
Time-tagging précis et tracking des leptons dans des faisceaux de neutrinos de nouvelle génération avec des détecteurs PICOSEC-Micromegas de grande surface.
Le projet ENUBET (Enhanced NeUtrino BEams from kaon Tagging) vise à développer un faisceau de neutrinos « monitoré » dont le flux et la composition en saveurs sont connus avec une précision au pourcent près, afin de permettre des mesures de sections efficaces de neutrinos d’une précision inédite. Pour cela, le tunnel de désintégration est instrumenté pour détecter et identifier les leptons chargés issus des désintégrations de kaons.
Le Micromegas PICOSEC est un détecteur gazeux à microstructures rapide et à double étage d’amplification, combinant un radiateur Tcherenkov, une photocathode et une structure Micromegas. Contrairement aux Micromegas classiques, l’amplification s’y produit également dans la région de dérive, où le champ électrique est plus intense que dans la région d’amplification principale. Cette configuration permet d’atteindre des résolutions temporelles exceptionnelles, de l’ordre de 12 ps pour les muons et d’environ 45 ps pour les photoélectrons uniques, faisant du PICOSEC l’un des détecteurs gazeux les plus rapides jamais réalisés.
L’intégration de modules Micromegas PICOSEC de grande surface dans le tunnel de désintégration d’ENUBET permettrait un horodatage des leptons avec une précision inférieure à 100 ps, améliorant l’identification des particules, réduisant le pile-up, et facilitant la corrélation entre les leptons détectés et leurs kaons parents — une étape clé vers des faisceaux de neutrinos à flux contrôlé avec précision.
Dans le cadre de cette thèse, le candidat ou la candidate participera à l’optimisation et à la caractérisation de prototypes Micromegas PICOSEC de 10 × 10 cm², ainsi qu’à la conception et au développement de détecteurs de plus grande surface pour l’expérience nuSCOPE et l’instrumentation du hadron dump d’ENUBET.
À la recherche des exo-aurores
Les aurores sont des phénomènes optiques bien connus dans les planètes du système solaire. Elles ont une grande valeur diagnostique, car leurs émissions révèlent la composition atmosphérique des planètes, la présence de champs magnétiques et les conditions du vent solaire à l'orbite de la planète. La recherche d'aurores sur les exoplanètes et les naines brunes constitue la prochaine étape. Une première avancée dans cette direction a récemment eu lieu, avec la détection d'une émission de CH4 attribuée à l'excitation aurorale sur la naine brune W1935. Cette détection, ainsi que la perspective d'observer d'autres caractéristiques aurorales avec les télescopes existants et à venir, sont à l'origine de ce projet. Nous construirons notamment le premier modèle dédié à l'étude des émissions aurorales de CH4 et H3+ sur les exoplanètes et les naines brunes. Ce modèle sera utilisé pour étudier les conditions sur W1935 et pour prédire la détectabilité des aurores sur d'autres objets substellaires.
Comprendre l’origine de la remarquable efficacité de formation des galaxies lointaines
Le télescope spatial James Webb révolutionne notre compréhension de l’univers lointain. Un résultat s’impose qui questionne nos modèles : la très grande efficacité de formation d’étoiles des galaxies lointaines. Mais ce constat est dérivé de manière indirecte : on mesure la masse d’étoiles dans les galaxies, pas leur taux de formation d’étoiles. C’est la principale faiblesse du James Webb. Le but de cette thèse est de remédier à cette faiblesse du James Webb en utilisant sa capacité de résolution angulaire, qui n’a jusqu’ici pas été prise en compte afin d’obtenir une mesure plus robuste du SFR des galaxies distantes. On en déduira une loi qui permettra d’améliorer la robustesse de la détermination du SFR grâce aux propriétés morphologiques et en combinant les données du James Webb avec celles d’ALMA (z=1-3). Puis on l’appliquera à l’univers lointain (z=3-6, 2e partie) et on l’utilisera comme benchmark pour les simulations numériques (3e partie).