Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable

Contexte

L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.

La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.

Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.

Projet de doctorat

Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.

Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.

Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.

Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.

La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.

Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.

Références

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].

Validation de nouveaux schémas de calcul neutronique APOLLO3 des Réacteurs à Eau Légère à l’aide de simulations Monte Carlo multigroupes combinées à une approche perturbative

Le CEA développe depuis une douzaine d’années une plateforme de calcul neutronique déterministe multifilières, APOLLO3, qui commence à être utilisée pour des études de réacteur. Un schéma de calcul classique d’APOLLO3 en deux étapes repose sur une première étape de calculs d’assemblages en réseau infini à deux dimensions en transport fin générant des bibliothèques de sections efficaces multiparamétrées utilisées dans la deuxième étape de calcul de cœur 3D. Dans le cas d’un gros réacteur électrogène, le calcul de cœur nécessite des approximations qui peuvent être plus ou moins fortes suivant le type d’utilisation visée.

Les schémas de calcul de référence, type SHEM-MOC, et industriel, type REL2005, utilisés encore actuellement à l’étape réseau par le CEA et ses partenaires industriels, EDF et Framatome, ont été développés au milieu des années 2000 à partir des méthodes disponibles dans le code APOLLO2.8. Depuis, de nouveaux développements ont vu le jour dans le code APOLLO3 qui ont fait individuellement l’objet de travaux de vérification et validation démontrant leur capacité à améliorer la qualité des résultats à l’étape réseau. On peut citer, entre autre, les nouvelles méthodes d’autoprotection, sous-groupes et Tone, l’utilisation de sources linéaires surfaciques dans les calculs de flux en méthode des caractéristiques, la reconstruction de flux pour les calculs d’évolution isotopique, et nouveau maillage énergétique fin à 383 groupes.

L’objectif de cette thèse est de définir et valider deux nouveaux schémas de calculs réseau pour les applications REL qui intègrent tout ou partie de ces nouvelles méthodes, en visant des temps de calcul raisonnables pour le schéma de référence, et compatibles avec une utilisation en routine pour le schéma industriel (ces schémas ont vocation à être utilisés dans les futures chaînes de calculs du CEA et de ses partenaires). Les schémas de calcul mis en place seront validés à 2D sur des géométries issues de la suite de benchmarks VERA. La validation sera menée en suivant une approche innovante mettant en œuvre des calculs Monte Carlo à énergie continue ou multigroupes et une analyse perturbative des écarts.

Conception d’une expérience de validation du "crédit burnup" RNR dans le RJH

Le Réacteur nucléaire expérimental Jules Horowitz a pour mission première de répondre aux besoins d’irradiation de matériaux et combustibles pour l'industrie nucléaire actuelle et les générations ultérieures. Son démarrage est prévu autour de 2032. La conception des premières vagues de dispositifs expérimentaux du RJH est déjà très avancée, la priorité étant de répondre aux besoins industriels GEN2 et 3. En revanche, un champ reste ouvert à plus long terme, celui d’expériences indispensables à la filière GEN4, alors que l’on ne dispose pas de réacteur d’irradiation à spectre rapide.
L’objectif de la thèse est d’étudier la faisabilité d’expériences dans le RJH et d'autres réacteurs à eau, à des fins de validation de la perte de réactivité de combustibles RNR innovants.

La première partie du travail consiste à identifier et hiérarchiser les produits de fission (PF) contributeurs principaux à la perte de réactivité dans un RNR-Na typique. L'état des connaissances (données nucléaires JEFF4) sera dressé. La deuxième partie correspond à la mesure par activation et l'évaluation de la section efficace de capture des PF RNR stables en spectre rapide. Elle consiste à concevoir, spécifier, réaliser et mettre en œuvre un porte-cible PF-RNR « stables » dans le réacteur de l’ILL ou au poste de reprise du réacteur CABRI (avec écrans aux neutrons thermiques).
La troisième et dernière partie est la conception d’une expérience dans le RJH permettant de générer des PF-RNR et de les caractériser. Elle consiste à concevoir des essais d’irradiation de combustibles en conditions représentatives d’un RNR-Na, pour accéder à l’inventaire PF par spectrométrie sous eau dans le RJH et pesée intégrale de réactivité avant/après irradiation dans CABRI ou un autre réacteur disponible.

La thèse se déroule dans une équipe expérimentée dans la caractérisation neutronique et thermohydraulique du RJH.
Le/La doctorant/e sera aussi accompagné/e par plusieurs experts du département, au fur et à mesure des thématiques abordées. Il/Elle pourra valoriser ses résultats auprès de tous les partenaires de la filière (CEA, EDF, Framatome, Orano, Technicatome etc.).

De la combustion à l’astrophysique : simulations exaflopiques des écoulements fluides/particules

Cette thèse se concentre sur le développement de méthodes numériques avancées pour simuler les interactions entre fluides et particules dans des environnements complexes. Ces méthodes, initialement utilisées dans des applications industrielles comme la combustion et les écoulements multiphasiques, seront améliorées pour permettre une utilisation dans des codes de simulation pour supercalculateur exaflopique et adaptées aux besoins de l'astrophysique. L'objectif est de permettre l'étude des phénomènes astrophysiques tels que : la dynamique des poussières dans les disques protoplanétaires et la structuration de la poussière dans les proto-étoiles et le milieu interstellaire. Les résultats attendus incluent une meilleure compréhension des mécanismes de formation planétaire et de structuration des disques, ainsi que des avancées dans les méthodes numériques qui seront bénéfiques pour les sciences industrielles et astrophysiques.

Premières observations du ciel gamma au TeV avec la caméra NectarCAM pour l’observatoire CTA

L’astronomie des très hautes énergies est une partie de l’astronomie relativement récente (30 ans) qui s’intéresse au ciel au-dessus de 50 GeV. Après les succès du réseau H.E.S.S. dans les années 2000, un observatoire international, le Cherenkov Telescope Array (CTA) devrait entrer en fonctionnement à l’horizon 2026. Cet observatoire comportera une cinquantaine de télescopes au total, répartis sur deux sites. L’IRFU est impliqué dans la construction de la NectarCAM, une caméra destinée à équiper les télescopes « moyens » (MST) de CTA. Le premier exemplaire de cette caméra (sur les neuf prévues) est en cours d’intégration à l’IRFU et sera envoyé sur site en 2025. Une fois la caméra installée, les premières observations du ciel pourront avoir lieu, permettant de valider entièrement le fonctionnement de la caméra. La thèse vise à finaliser les tests en chambre noire à l’IRFU, préparer l’installation et valider le fonctionnement de la caméra sur le site de CTA. Elle vise également à effectuer les premières observations astronomiques avec ce nouvel instrument. Il est également prévu de participer à l’analyse des données de la collaboration H.E.S.S., sur des sujets d’astroparticules (recherche de trous noirs primordiaux, contraintes sur l’Invariance de Lorentz à l’aide d’AGN lointains).

Vers une plateforme d’irradiation photonique multimodale : fondements et conceptualisation

Les techniques d’irradiation photonique exploitent les interactions entre un faisceau de photons de haute énergie et la matière pour effectuer des mesures non destructives. En induisant des réactions photonucléaires, telles que l’activation photonique, les résonances de fluorescence nucléaire (NRF) et la photofission, ces techniques d’irradiation permettent de sonder la matière en profondeur. L’association de ces différentes techniques de mesure nucléaire au sein d’une plateforme d’irradiation unique permettrait une identification précise et quantitative d’une grande variété d’éléments, en sondant le volume des matériaux ou objets étudiés. Le faisceau de photons de haute énergie est généralement produit par rayonnement de freinage (phénomène de Bremsstrahlung) au sein d’une cible de conversion d’un accélérateur linéaire d’électrons. Une alternative innovante consiste à exploiter les électrons de haute énergie délivrés par une source laser-plasma, convertis par rayonnement de freinage ou par diffusion Compton inverse. Une plateforme basée sur une telle source offrirait de nouvelles possibilités, car les sources laser-plasma peuvent atteindre des énergies significativement supérieures, permettant ainsi l'accès à de nouvelles techniques et applications d'imagerie avancées. L’objectif de cette thèse est d’établir les fondements et de conceptualiser une plateforme d’irradiation photonique multimodale. Un tel dispositif viserait à se baser sur une source laser-plasma et permettrait la combinaison des techniques d’activation photonique, des résonances de fluorescence nucléaire (NRF) et de la photofission. En repoussant les limites des mesures nucléaires non destructives, cette plateforme offrirait des solutions innovantes à des défis majeurs dans des secteurs stratégiques tels que la sécurité et le contrôle aux frontières, la gestion des colis de déchets radioactifs, ainsi que l'industrie du recyclage.

ÉTUDE DE MÉTHODE D’INTELLIGENCE ARTIFICIELLE POUR LA SIMULATION ET L’EXTRACTION DE LA PRODUCTION DU BOSON DE HIGGS SE DÉSINTÉGRANT EN DEUX MUONS DANS L’EXPÉRIENCE ATLAS AU LHC

Les nouvelles techniques d’intelligence artificielle suscitent un intérêt croissant pour gérer le volume massif de données collectées par les expériences de physique des particules en particulier au collisionneur LHC. Cette thèse propose d’étudier ces nouvelles techniques pour la simulation du bruit de fond d’événements rares provenant de la désintégration en deux muons du boson de Higgs ainsi que de mettre en place de nouvelle méthode d’intelligence artificielle pour simuler la réponse de la résolution du détecteur du spectromètre à muons, qui est un élément crucial pour cette analyse.

RECHERCHES D’EMISSION DIFFUSES EN RAYONS GAMMA DE TRES HAUTE ENERGIE ET PHYSIQUE FONDAMENTALE AVEC H.E.S.S. ET CTAO

Les observations en rayons gamma de très hautes énergies (THE, E>100 GeV) sont cruciales pour la compréhension des phénomènes non-thermiques les plus violents à l’œuvre dans l’Univers. La région centre de la Voie Lactée est une région complexe et active en rayons gamma de THE. Parmi les sources gamma de THE se trouvent le trou noir supermassif Sagittarius A* au coeur de la Galaxie, des vestiges de supernova ou encore des régions de formation d'étoiles. Le centre Galactique (CG) abrite un un accélérateur de rayons cosmiques jusqu’à des énergies du PeV, des émissions diffuses du GeV au TeV dont le « Galactic Center Excess » (GCE) dont l’origine est encore inconnue, de potentielles sources variables au TeV, ainsi que possibles populations de sources non encore résolues (pulsars millisecondes, trous noirs de masses intermédiaires). Le CG devrait être la source la plus brillante d’annihilations de
particules massives de matière noire de type WIMPs. Des candidats matière noire plus légers, les particules de type axions (ALP), pourraient se convertir en photons, et vice versa, dans les champs magnétiques laissant une empreinte d’oscillation dans les spectres gamma de noyaux actifs de galaxies (AGN).
L'observatoire H.E.S.S. situé en Namibie est composé de cinq télescopes imageurs à effet Cherenkov atmosphérique. Il est conçu pour détecter des rayons gamma de quelques dizaines de GeV à plusieurs dizaines de TeV. La région du Centre Galactique est observée par H.E.S.S. depuis vingt ans. Ces observations ont permis de détecter le premier Pevatron Galactique et de poser les contraintes les plus fortes à ce jour sur la section efficace d'annihilation de particules de matière noire dans la plage en masse du TeV. Le futur observatoire CTA sera déployé sur deux sites, l'un à La Palma et l'autre au Chili. Ce dernier composé de plus de 50 télescopes permettra d'obtenir un balayage sans précédent de la région sur Centre Galactique.
Le travail proposé portera sur l'analyse et l'interprétation des observations H.E.S.S. conduites dans la région du Centre Galactique pour la recherche d'émission diffuses (populations de sources non résolues, matière noire massive) ainsi que des observations menées vers un sélection de noyaux actifs de galaxie pour la recherche d'ALPs constituant la matière noire. Ces nouveaux cadres d'analyses seront implémentés pour les analyses CTA à venir. Une implication dans la prise de données H.E.S.S. est attendue.

ÉTUDE DE LA VARIABILITE MULTI-ECHELLES DU CIEL GAMMA A TRES HAUTE ENERGIE

L'astronomie gamma de très haute énergie observe le ciel au-dessus de quelques dizaines de GeV. Ce domaine émergent de l’astronomie est en plein essor depuis le début des années 1990, en particulier, depuis la mise en service en 2004 du réseau de télescopes H.E.S.S. en Namibie. L'IRFU/CEA-Paris Saclay est un membre particulièrement actif de cette collaboration depuis ses débuts. Il est également impliqué dans la préparation du futur observatoire CTAO (Cherenkov Telescope Array Observatory) qui est actuellement en phase d’installation. La détection des photons gamma d'énergie supérieure à quelques dizaines de GeV permet d'étudier les processus d’accélération des particules chargées au sein d’objets aussi variés que les vestiges de supernova ou les noyaux actifs de galaxies. Par ce biais, H.E.S.S. vise notamment à répondre à la question centenaire de l'origine des rayons cosmiques.
H.E.S.S. permet de mesurer la direction, l'énergie et le temps d'arrivée de chaque photon détecté. La mesure du temps a permis de mettre en évidence des sources dont le flux présente des variations temporelles importantes ou encore périodiques. L'étude de ces émissions variables (transitoires ou périodiques), que ce soit en direction du Centre Galactique ou de noyaux actifs de galaxies (AGN) lointains permet de mieux comprendre les processus d'émissions à l'œuvre au sein de ces sources, de caractériser le milieu dans lequel les photons se propagent mais également de tester la validité de certaines lois physiques fondamentales comme l’invariance de Lorentz. La large gamme d'échelles temporelles qu'il est possible de sonder permet de rechercher et d'étudier des sursauts ou des variations dans le flux des sources allant de quelques secondes (sursaut gamma, trous noirs primordiaux) à quelques années (systèmes binaires de haute masse, noyaux actifs de galaxie).
L'un des succès majeurs des deux décennies de prise de données de H.E.S.S. a été de conduire à des relevés des ciels galactique et extragalactique aux très-hautes énergies. Ces relevés combinent des observations dédiées à certaines sources,
comme le Centre Galactique ou certains vestiges de supernovæ, mais aussi des observations à l’aveugle pour la découverte de nouvelles sources. Le sujet de thèse proposé ici porte sur un aspect de l’étude des sources qui reste à explorer : la recherche et l'étude de la variabilité des sources de très hautes énergies. Pour les sources variables, il est également intéressant de corréler la variabilité dans d’autres domaines de longueurs d’onde. Finalement le modèle de la source peut aider à prédire son comportement, par exemple ses « états hauts » ou ses sursauts.

Réactions nucléaires induites par des anti-ions légers – apport du modèle INCL

L’interaction d’une antiparticule avec un noyau atomique est un type de réaction qu’il faut savoir simuler pour pouvoir répondre à des questions fondamentales. On peut citer comme exemples, la collaboration PANDA (FAIR) avec des faisceaux d’antiproton de l’ordre du GeV qui envisage l’étude des interactions nucléon-hypéron, ainsi que celle de la peau de neutron, par la production d’hypérons et d’antihypérons. Cette même peau de neutron est aussi étudiée avec des antiprotons au repos avec l’expérience PUMA (AD - Cern). Au même endroit nous collaborons avec l’expérience ASACUSA pour l’étude de la production des particules chargées. Pour répondre à ces études, notre code de réactions nucléaires INCL a été étendu aux antiprotons (thèse D. Zharenov soutenue fin 2023). Au-delà de l’antiproton il y a les antideutérons et antiHe-3. Ces antiparticules sont d’un intérêt plus récent, avec notamment l'expérience GAPS (General AntiParticle Spectrometer) qui vise à mesurer les flux de ces particules dans le rayonnement cosmique. L’idée est de mettre en évidence la matière noire, dont ces particules seraient des produits de décroissance, et dont la quantité mesurée doit ressortir plus facilement du bruit de fond astrophysique que dans le cas des antiprotons. Le sujet proposé est donc l’implantation des anti-noyaux légers dans INCL avec comparaisons à des données expérimentales.

Top