Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable
Contexte
L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.
La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.
Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.
Projet de doctorat
Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.
Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.
Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.
Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.
La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.
Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.
Références
[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].
Méthodes pour la détection rapide d’évènements gravitationnels à partir des données LISA
La thèse porte sur le développement de méthodes d’analyse rapide pour la détection et la caractérisation des ondes gravitationnelles, en particulier dans le cadre de la future mission spatiale LISA (Laser Interferometer Space Antenna) prévue par l’ESA vers 2035.L’analyse des données fait intervenir différentes étapes dont l’une des premières est le « pipeline » d’analyse rapide, dont le rôle est la détection de nouveaux évènements, ainsi que la caractérisation d’évènements. Le dernier point a trait à l’estimation rapide de la position dans le ciel de la source d’émission d’ondes gravitationnelles, et de leur temps caractéristique tel que le temps de coalescence pour une fusion de trous noirs par exemple. Ces outils d'analyse forment le pipeline d'analyse à faible latence (low-latency pipeline). Au-delà de l’intérêt pour LISA, celui-ci joue également un rôle primordial pour le suivi rapide des évènements détectés par des observations électromagnétiques (observatoires au sol ou spatiaux, des ondes radio aux rayons gamma). Si des méthodes d’analyse rapides ont été développées pour les interféromètres au sol, le cas des interféromètres spatiaux tels que LISA reste un champ à explorer. Ainsi, un traitement adapté des données devra prendre en compte le mode de transmission des données par paquet, nécessitant ainsi la détection d’évènements à partir de données incomplètes. À partir de données entachées d’artefacts tels que des glitches, ces méthodes devront permettre la détection, la discrimination et l’analyse de sources diverses
Dans cette thèse, nous proposons de développer une méthode robuste et performante pour la détection précoce de binaires de trous noirs massifs (MBHBs). Cette méthode devra permettre la prise en compte du flux de données tel qu’attendu dans le cadre de LISA, traité de potentiels artefacts (e.g. bruit non-stationnaire et glitches). Elle permettra la production d’alarmes, incluant un indice de confiance de la détection ainsi qu’une première estimation des paramètres de la source (temps de coalescence, position dans le ciel et masse de la binaire) ; une première estimation rapide est essentielle pour initialiser au mieux une estimation plus précise mais plus couteuse de l’estimation de paramètres.
Sur le lien universel accrétion / éjection : des microquasars aux transitoires extragalactiques
Ce projet de thèse étudie le couplage universel entre l'accrétion et l'éjection, processus fondamentaux par lesquels les trous noirs et les étoiles à neutrons grandissent et libèrent de l'énergie. En utilisant les microquasars comme laboratoires proches, le candidat étudiera comment les variations des flux d'accrétion produisent des jets relativistes, et comment ces mécanismes s'appliquent à l'échelle des trous noirs supermassifs dans les événements de disruption par marée (TDE).
Le couplage accrétion-éjection entraîne des rétroactions d'énergie qui façonne la formation et l'évolution des galaxies, mais son origine physique reste mal comprise. Le candidat combinera des observations multi-longueurs d'onde - provenant du SVOM (rayons X/optique) et de nouveaux télescopes radio (MeerKAT, précurseurs du SKA) - pour effectuer des analyses résolues en temps reliant les états d'accrétion à l'émission de jets. De récentes missions telles que Einstein Probe et l'observatoire Vera Rubin (LSST) élargiront considérablement l'échantillon de transitoires, y compris les TDE à jets, permettant de nouveaux tests de la physique du lancement des jets à travers les échelles de masse et de temps.
Au sein de l'équipe CEA/IRFU, un partenaire majeur de SVOM, l'étudiant participera à la détection en temps réel des transitoires et au suivi multi-longueurs d'onde, tout en exploitant les données d'archives pour fournir un contexte à long terme. Ce projet permettra au candidat de se former à l'astrophysique des hautes énergies, à la radioastronomie et à la découverte basée sur les données, contribuant ainsi à une compréhension unifiée de l'accrétion, de la formation des jets et de la rétroaction cosmique.
À la recherche des exo-aurores
Les aurores sont des phénomènes optiques bien connus dans les planètes du système solaire. Elles ont une grande valeur diagnostique, car leurs émissions révèlent la composition atmosphérique des planètes, la présence de champs magnétiques et les conditions du vent solaire à l'orbite de la planète. La recherche d'aurores sur les exoplanètes et les naines brunes constitue la prochaine étape. Une première avancée dans cette direction a récemment eu lieu, avec la détection d'une émission de CH4 attribuée à l'excitation aurorale sur la naine brune W1935. Cette détection, ainsi que la perspective d'observer d'autres caractéristiques aurorales avec les télescopes existants et à venir, sont à l'origine de ce projet. Nous construirons notamment le premier modèle dédié à l'étude des émissions aurorales de CH4 et H3+ sur les exoplanètes et les naines brunes. Ce modèle sera utilisé pour étudier les conditions sur W1935 et pour prédire la détectabilité des aurores sur d'autres objets substellaires.
Exploration des exoplanètes rocheuses avec le JWST
L’un des principaux objectifs du télescope spatial JWST est de caractériser, pour la première fois, les atmosphères des exoplanètes rocheuses et tempérées, une étape clé dans la recherche de mondes potentiellement habitables. Les exoplanètes rocheuses tempérées accessibles au JWST sont principalement celles en orbite autour d’étoiles de type M. Cependant, une question majeure demeure quant à la capacité des planètes orbitant autour de ces étoiles froides à conserver leur atmosphère. En 2024, un programme exceptionnel de 500 heures de temps discrétionnaire du directeur (Director’s Discretionary Time, DDT), intitulé Rocky Worlds, a été consacré à cette thématique, soulignant son importance stratégique au plus haut niveau (NASA, STScI).
L’objectif principal de ce projet de doctorat est : 1) Analyser l’ensemble des données d’éclipses JWST/MIRI disponibles pour les exoplanètes rocheuses issues du programme Rocky Worlds et d’autres programmes publics, en utilisant un cadre d’analyse cohérent et homogène ; 2) Rechercher des tendances à l’échelle des populations dans les observations et de les interpréter à l’aide de simulations atmosphériques tridimensionnelles.
À travers ce travail, nous visons à identifier les processus physiques qui régissent la présence et la composition des atmosphères des exoplanètes rocheuses tempérées.
Formation des magnétars : de l’amplification à la relaxation des champs magnétiques les plus extrêmes
Les magnétars sont les étoiles à neutrons arborant les plus forts champs magnétiques connus dans l’Univers, observées comme des sources galactiques de haute énergie. La formation de ces objets figure parmi les scénarios les plus étudiés pour expliquer certaines des explosions les plus violentes : les supernovae superlumineuses, les hypernovae et les sursauts gamma. Notre équipe a réussi au cours des dernières années à reproduire numériquement des champs magnétiques d’une intensité comparable à celle des magnétars en simulant des mécanismes d'amplification dynamo qui se développent dans les premières secondes après la formation de l’étoile à neutrons. La plupart des manifestations observationnelles des magnétars nécessitent cependant que le champ magnétique survive sur des échelles de temps bien plus longues (de quelques semaines pour les supernovae superlumineuses à des milliers d’années pour les magnétars galactiques). Cette thèse consistera à développer des simulations numériques 3D de relaxation du champ magnétique initialisées à partir de différents états dynamo calculés précédemment par l’équipe, en les prolongeant vers des stades plus tardifs après la naissance de l’étoile à neutrons lorsque la dynamo n’est plus active. L’étudiant.e déterminera ainsi comment le champ magnétique turbulent généré dans les premières secondes va évoluer pour éventuellement atteindre un état d’équilibre stable, dont on cherchera à caractériser la topologie et à le confronter aux observations électromagnétiques.
Comprendre l’origine de la remarquable efficacité de formation des galaxies lointaines
Le télescope spatial James Webb révolutionne notre compréhension de l’univers lointain. Un résultat s’impose qui questionne nos modèles : la très grande efficacité de formation d’étoiles des galaxies lointaines. Mais ce constat est dérivé de manière indirecte : on mesure la masse d’étoiles dans les galaxies, pas leur taux de formation d’étoiles. C’est la principale faiblesse du James Webb. Le but de cette thèse est de remédier à cette faiblesse du James Webb en utilisant sa capacité de résolution angulaire, qui n’a jusqu’ici pas été prise en compte afin d’obtenir une mesure plus robuste du SFR des galaxies distantes. On en déduira une loi qui permettra d’améliorer la robustesse de la détermination du SFR grâce aux propriétés morphologiques et en combinant les données du James Webb avec celles d’ALMA (z=1-3). Puis on l’appliquera à l’univers lointain (z=3-6, 2e partie) et on l’utilisera comme benchmark pour les simulations numériques (3e partie).
TRANSFORMER : de la généalogie des halos de matière noire aux propriétés baryoniques des amas de galaxies.
La thèse propose de prédire les propriétés baryoniques des amas de galaxies en fonction de l'historique de la formation des halos de matière noire, au moyen de réseaux de neurones novateurs (Transformers). Le travail fera appel à des simulations numériques intensives. Ce projet se situe dans le cadre général de la détermination des paramètres cosmologiques par l'observation des amas de galaxies en rayons X. Il est en lien direct avec le programme international Heritage dans le champ profond XMM-Euclid FornaX.
Etude numérique de la turbulence interstellaire à l'heure de l'exascale
Ce projet de thèse vise à mieux comprendre la turbulence du milieu interstellaire, un phénomène clé pour la formation des étoiles et des structures galactiques. Cette turbulence, à la fois magnétisée, supersonique et multiphasique, influence la manière dont l’énergie se propage et se dissipe, régulant ainsi l’efficacité de la formation stellaire à travers l’histoire de l’Univers. Son étude est complexe car elle implique une vaste gamme d’échelles spatiales et temporelles, difficile à reproduire numériquement. Les progrès du calcul haute performance, notamment l’arrivée des supercalculateurs exascale à GPU permet désormais d’envisager des simulations beaucoup plus fines.
Le code Dyablo, développé à l’IRFU, sera utilisé pour réaliser des simulations tridimensionnelles de très grande taille, avec un maillage adaptatif pour affiner les zones de dissipation d’énergie. L’étude progressera par étapes : d’abord des écoulements simples et isothermes, puis des modèles incluant chauffage, refroidissement, champ magnétique et gravité. Les propriétés turbulentes seront analysées via spectres de puissance, fonctions de structure et distributions de densité, afin de mieux comprendre la formation des zones denses propices à la naissance des étoiles. Enfin, une extension du travail à l’échelle galactique, en collaboration avec d’autres instituts français, visera à explorer la cascade d’énergie turbulente à grande échelle dans les galaxies entières.