Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable

Contexte

L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.

La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.

Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.

Projet de doctorat

Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.

Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.

Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.

Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.

La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.

Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.

Références

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].

Analyse et étude expérimentale de structures capillaires pour atténuer l’influence des forces magnéto-gravitaires sur le refroidissement en hélium liquide des futurs aimants supraconducteur HTS

Avec la nécessité pour la physique de disposer de champs magnétiques de plus en plus élevés, le CEA est amené à développer et réaliser des aimants supraconducteurs qui permettront de produire des champs magnétiques de plus de 30 T. Le bobinage de ces électro-aimants est réalisé avec des matériaux supraconducteurs dont la résistance électrique est extrêmement faible aux températures cryogéniques (quelques Kelvins). Ils peuvent ainsi transporter de forts courants (>10 kA) tout en dissipant par effet Joule un minimum de chaleur. Le refroidissement à ces basses températures est obtenu grâce à l’utilisation d’hélium liquide. Or, l’hélium est diamagnétique. Ainsi les champs magnétiques vont induire des forces volumiques qui s’ajoutent ou s’opposent à la gravité au sein de l’hélium. Ces forces magnéto-gravitaires perturbent les phénomènes convectifs nécessaires au refroidissement des câbles supraconducteurs. Cela peut entrainer une élévation de leur température et une perte de leur état supraconducteur primordial pour leur bon fonctionnement. Afin de contourner ce phénomène, un système de refroidissement inédit en cryomagnétisme sera étudié. Ce système de refroidissement sera développé avec des caloducs dont le fonctionnement est basé sur les forces capillaires à priori indépendantes des forces magnéto-gravitaires induites par les forts champs magnétiques. Ces structures capillaires peuvent prendre plusieurs formes (micro-canaux, mousse, maille …), ainsi dans le cadre de la thèse ces différentes structures seront étudiées théoriquement puis expérimentalement, à la fois sans et en présence de forces magnétiques afin de déterminer les structures les plus adaptées aux aimants supraconducteurs du futur.

Mesure de la réponse intra-pixel de détecteur infrarouge à base de HgCdTe avec des rayons X pour l’astrophysique

Dans le domaine de l'astrophysique infrarouge, les capteurs de photons les plus utilisés sont des matrices de détecteur basées sur le matériau absorbant HgCdTe. La fabrication de tels détecteurs est une expertise mondialement reconnue du CEA/Leti à Grenoble. Quant au département d'astrophysique (DAp) du CEA/IRFU, il possède une expertise reconnue dans la caractérisation de ce type de détecteurs. Une caractéristique majeure est la réponse spatiale du pixel (RSP), elle caractérise la réponse d'un pixel élémentaire de la matrice à la génération ponctuelle de porteurs au sein du matériau absorbant à divers endroits dans le pixel. Aujourd’hui cette caractéristique des détecteurs devient un paramètre clef des performances instruments, elle est critique lorsqu’il s’agit par exemple de mesurer la déformation de galaxie, ou de faire de l’astrométrie de précision. Il existe différentes méthodes existent pour mesurer cette grandeur (projection de sources lumineuses ponctuelles, méthodes interférentielles). Ces méthodes sont complexes à mettre en œuvre, notamment aux températures cryogéniques de fonctionnement des détecteurs.
Au DAp, nous proposons une nouvelle méthode, basée sur l’utilisation de photons X pour mesurer la RSP de détecteur infrarouge : en interagissant avec le matériau HgCdTe, le photon X va générer des porteurs localement. Ces porteurs vont diffuser avant d’être collectés. L’objectif est ensuite de remonter à la RSP en analysant les images obtenues. Nous suggérons une approche à deux volets, intégrant à la fois des méthodes expérimentales et des simulations. Des méthodes d’analyse de données seront aussi développées. Ainsi, l’objectif final de cette thèse est de développer une nouvelle méthode, robuste, élégante et rapide de mesure de la réponse intra-pixel de détecteur infrarouge pour l’instrumentation spatiale. L’étudiant.e sera basé au DAp. Ce travail implique également le CEA/Leti, combinant l'expertise instrumentale du DAp avec les connaissances technologiques du CEA/Leti.

Premières observations du ciel gamma au TeV avec la caméra NectarCAM pour l’observatoire CTA

L’astronomie des très hautes énergies est une partie de l’astronomie relativement récente (30 ans) qui s’intéresse au ciel au-dessus de 50 GeV. Après les succès du réseau H.E.S.S. dans les années 2000, un observatoire international, le Cherenkov Telescope Array (CTA) devrait entrer en fonctionnement à l’horizon 2026. Cet observatoire comportera une cinquantaine de télescopes au total, répartis sur deux sites. L’IRFU est impliqué dans la construction de la NectarCAM, une caméra destinée à équiper les télescopes « moyens » (MST) de CTA. Le premier exemplaire de cette caméra (sur les neuf prévues) est en cours d’intégration à l’IRFU et sera envoyé sur site en 2025. Une fois la caméra installée, les premières observations du ciel pourront avoir lieu, permettant de valider entièrement le fonctionnement de la caméra. La thèse vise à finaliser les tests en chambre noire à l’IRFU, préparer l’installation et valider le fonctionnement de la caméra sur le site de CTA. Elle vise également à effectuer les premières observations astronomiques avec ce nouvel instrument. Il est également prévu de participer à l’analyse des données de la collaboration H.E.S.S., sur des sujets d’astroparticules (recherche de trous noirs primordiaux, contraintes sur l’Invariance de Lorentz à l’aide d’AGN lointains).

ÉTUDE DE MÉTHODE D’INTELLIGENCE ARTIFICIELLE POUR LA SIMULATION ET L’EXTRACTION DE LA PRODUCTION DU BOSON DE HIGGS SE DÉSINTÉGRANT EN DEUX MUONS DANS L’EXPÉRIENCE ATLAS AU LHC

Les nouvelles techniques d’intelligence artificielle suscitent un intérêt croissant pour gérer le volume massif de données collectées par les expériences de physique des particules en particulier au collisionneur LHC. Cette thèse propose d’étudier ces nouvelles techniques pour la simulation du bruit de fond d’événements rares provenant de la désintégration en deux muons du boson de Higgs ainsi que de mettre en place de nouvelle méthode d’intelligence artificielle pour simuler la réponse de la résolution du détecteur du spectromètre à muons, qui est un élément crucial pour cette analyse.

RECHERCHES D’EMISSION DIFFUSES EN RAYONS GAMMA DE TRES HAUTE ENERGIE ET PHYSIQUE FONDAMENTALE AVEC H.E.S.S. ET CTAO

Les observations en rayons gamma de très hautes énergies (THE, E>100 GeV) sont cruciales pour la compréhension des phénomènes non-thermiques les plus violents à l’œuvre dans l’Univers. La région centre de la Voie Lactée est une région complexe et active en rayons gamma de THE. Parmi les sources gamma de THE se trouvent le trou noir supermassif Sagittarius A* au coeur de la Galaxie, des vestiges de supernova ou encore des régions de formation d'étoiles. Le centre Galactique (CG) abrite un un accélérateur de rayons cosmiques jusqu’à des énergies du PeV, des émissions diffuses du GeV au TeV dont le « Galactic Center Excess » (GCE) dont l’origine est encore inconnue, de potentielles sources variables au TeV, ainsi que possibles populations de sources non encore résolues (pulsars millisecondes, trous noirs de masses intermédiaires). Le CG devrait être la source la plus brillante d’annihilations de
particules massives de matière noire de type WIMPs. Des candidats matière noire plus légers, les particules de type axions (ALP), pourraient se convertir en photons, et vice versa, dans les champs magnétiques laissant une empreinte d’oscillation dans les spectres gamma de noyaux actifs de galaxies (AGN).
L'observatoire H.E.S.S. situé en Namibie est composé de cinq télescopes imageurs à effet Cherenkov atmosphérique. Il est conçu pour détecter des rayons gamma de quelques dizaines de GeV à plusieurs dizaines de TeV. La région du Centre Galactique est observée par H.E.S.S. depuis vingt ans. Ces observations ont permis de détecter le premier Pevatron Galactique et de poser les contraintes les plus fortes à ce jour sur la section efficace d'annihilation de particules de matière noire dans la plage en masse du TeV. Le futur observatoire CTA sera déployé sur deux sites, l'un à La Palma et l'autre au Chili. Ce dernier composé de plus de 50 télescopes permettra d'obtenir un balayage sans précédent de la région sur Centre Galactique.
Le travail proposé portera sur l'analyse et l'interprétation des observations H.E.S.S. conduites dans la région du Centre Galactique pour la recherche d'émission diffuses (populations de sources non résolues, matière noire massive) ainsi que des observations menées vers un sélection de noyaux actifs de galaxie pour la recherche d'ALPs constituant la matière noire. Ces nouveaux cadres d'analyses seront implémentés pour les analyses CTA à venir. Une implication dans la prise de données H.E.S.S. est attendue.

ÉTUDE DE LA VARIABILITE MULTI-ECHELLES DU CIEL GAMMA A TRES HAUTE ENERGIE

L'astronomie gamma de très haute énergie observe le ciel au-dessus de quelques dizaines de GeV. Ce domaine émergent de l’astronomie est en plein essor depuis le début des années 1990, en particulier, depuis la mise en service en 2004 du réseau de télescopes H.E.S.S. en Namibie. L'IRFU/CEA-Paris Saclay est un membre particulièrement actif de cette collaboration depuis ses débuts. Il est également impliqué dans la préparation du futur observatoire CTAO (Cherenkov Telescope Array Observatory) qui est actuellement en phase d’installation. La détection des photons gamma d'énergie supérieure à quelques dizaines de GeV permet d'étudier les processus d’accélération des particules chargées au sein d’objets aussi variés que les vestiges de supernova ou les noyaux actifs de galaxies. Par ce biais, H.E.S.S. vise notamment à répondre à la question centenaire de l'origine des rayons cosmiques.
H.E.S.S. permet de mesurer la direction, l'énergie et le temps d'arrivée de chaque photon détecté. La mesure du temps a permis de mettre en évidence des sources dont le flux présente des variations temporelles importantes ou encore périodiques. L'étude de ces émissions variables (transitoires ou périodiques), que ce soit en direction du Centre Galactique ou de noyaux actifs de galaxies (AGN) lointains permet de mieux comprendre les processus d'émissions à l'œuvre au sein de ces sources, de caractériser le milieu dans lequel les photons se propagent mais également de tester la validité de certaines lois physiques fondamentales comme l’invariance de Lorentz. La large gamme d'échelles temporelles qu'il est possible de sonder permet de rechercher et d'étudier des sursauts ou des variations dans le flux des sources allant de quelques secondes (sursaut gamma, trous noirs primordiaux) à quelques années (systèmes binaires de haute masse, noyaux actifs de galaxie).
L'un des succès majeurs des deux décennies de prise de données de H.E.S.S. a été de conduire à des relevés des ciels galactique et extragalactique aux très-hautes énergies. Ces relevés combinent des observations dédiées à certaines sources,
comme le Centre Galactique ou certains vestiges de supernovæ, mais aussi des observations à l’aveugle pour la découverte de nouvelles sources. Le sujet de thèse proposé ici porte sur un aspect de l’étude des sources qui reste à explorer : la recherche et l'étude de la variabilité des sources de très hautes énergies. Pour les sources variables, il est également intéressant de corréler la variabilité dans d’autres domaines de longueurs d’onde. Finalement le modèle de la source peut aider à prédire son comportement, par exemple ses « états hauts » ou ses sursauts.

Réactions nucléaires induites par des anti-ions légers – apport du modèle INCL

L’interaction d’une antiparticule avec un noyau atomique est un type de réaction qu’il faut savoir simuler pour pouvoir répondre à des questions fondamentales. On peut citer comme exemples, la collaboration PANDA (FAIR) avec des faisceaux d’antiproton de l’ordre du GeV qui envisage l’étude des interactions nucléon-hypéron, ainsi que celle de la peau de neutron, par la production d’hypérons et d’antihypérons. Cette même peau de neutron est aussi étudiée avec des antiprotons au repos avec l’expérience PUMA (AD - Cern). Au même endroit nous collaborons avec l’expérience ASACUSA pour l’étude de la production des particules chargées. Pour répondre à ces études, notre code de réactions nucléaires INCL a été étendu aux antiprotons (thèse D. Zharenov soutenue fin 2023). Au-delà de l’antiproton il y a les antideutérons et antiHe-3. Ces antiparticules sont d’un intérêt plus récent, avec notamment l'expérience GAPS (General AntiParticle Spectrometer) qui vise à mesurer les flux de ces particules dans le rayonnement cosmique. L’idée est de mettre en évidence la matière noire, dont ces particules seraient des produits de décroissance, et dont la quantité mesurée doit ressortir plus facilement du bruit de fond astrophysique que dans le cas des antiprotons. Le sujet proposé est donc l’implantation des anti-noyaux légers dans INCL avec comparaisons à des données expérimentales.

Chimie de déséquilibre des atmosphères d'exoplanètes à haute métallicité à l'époque du JWST

En un peu plus de deux ans d'exploitation scientifique, le JWST a révolutionné notre compréhension des exoplanètes et de leurs atmosphères. La mission spatiale ARIEL, qui sera lancée en 2029, contribuera bientôt à cette révolution. L'une des principales découvertes rendues possibles par la qualité exceptionnelle des données du JWST est que les atmosphères des exoplanètes sont en déséquilibre chimique. Un traitement complet du déséquilibre est complexe, en particulier lorsque les atmosphères sont riches en métaux, c'est-à-dire lorsqu'elles contiennent en abondance significative des éléments autres que l'hydrogène et l'hélium. Dans un premier temps, notre projet étudiera numériquement l'étendue du déséquilibre chimique dans les atmosphères des cibles du JWST suspectées d'avoir des atmosphères riches en métaux. Nous utiliserons à cette fin un modèle photochimique interne. Dans un deuxième temps, notre projet explorera l'effet de la chimie super-thermique comme moteur du déséquilibre chimique. Cela permettra d'obtenir des informations inédites sur la chimie des atmosphères riches en métaux, avec le potentiel de jeter un nouvel éclairage sur les trajectoires chimiques et évolutives des exoplanètes de faible masse.

Etude des sursauts gamma cosmiques détectes par la mission SVOM

Les sursauts gamma cosmiques (GRBs) sont des bref (0.1-100 s) éclairs de photons gamma qui apparaissent de façon imprévisible sur toute la voûte céleste. Bien que découverts à la fin des années 1960, ils sont restés mystérieux jusqu'à la fin des années 1990 à cause de leur nature furtive. Ce n'est que grâce aux observations du satellite BepppSAX à la fin des années 1990 et surtout à celles du satellite Swift à partir des années 2000, que le mystère de la nature de ces sources à pu être percé.
En fait il s'agit d'émissions liées d'une part aux phases finales d'une étoile très massive (30-50 fois la masse su Soleil) pour les sursaut longs (>2 s) et de l'autre à la coalescence de deux objets compacts (typiquement deux étoiles à neutrons) pour les sursauts courts (< 2s). Dans tous les cas il y a création d'un jet de matière relativiste qui est à l'origine de l'émission gamma et dans les autres bandes d'énergie. Si ce puissant jet est pointé vers la terre on peut observer les sursauts gamma jusqu'à des distances très élevées (z~9.1) ce qui correspond à un age très jeune de notre Univers (~500 Myr).
SVOM est une mission satellitaire franco-chinoise dédiée à l'etude des sursauts gamma, qui a été lancée avec succès le 22 juin 2024 et dans laquelle le CEA/Irfu/DAp est fortement impliqué. Le sujet de thèse se propose d'exploiter les données multi-longueur d'onde de la charge utile de SVOM et des télescopes partenaires pour mieux étudier la nature des sursauts gamma et en particulier d'utiliser les données du telescope à rayons X MXT, pour mieux contraindre la nature de l'objet compact qui est la source des jets relativistes, qui sont à l'origine des émissions observées.

Top