IA générative pour la quantification robuste des incertitudes dans les problèmes inverses en astrophysiques

Contexte
Les problèmes inverses, c'est-à-dire l'estimation des signaux sous-jacents à partir d'observations corrompues, sont omniprésents en astrophysique, et notre capacité à les résoudre avec précision est essentielle à l'interprétation scientifique des données. Parmi les exemples de ces problèmes, on peut citer l'inférence de la distribution de la matière noire dans l'Univers à partir des effets de lentille gravitationnelle [1], ou la séparation des composantes dans l'imagerie radio-interférométrique [2].

Grâce aux récents progrès de l'apprentissage profond, et en particulier aux techniques de modélisation générative profonde (par exemple les modèles de diffusion), il est désormais possible non seulement d'obtenir une estimation de la solution de ces problèmes inverses, mais aussi d'effectuer une quantification de l'incertitude en estimant la distribution de probabilité a posteriori Bayésienne du problème, c'est-à-dire en ayant accès à toutes les solutions possibles qui seraient permises par les données, mais aussi plausibles en fonction des connaissances antérieures.

Notre équipe a notamment été pionnière dans l'élaboration de méthodes bayésiennes combinant notre connaissance de la physique du problème, sous la forme d'un terme de vraisemblance explicite, avec des à prioris basées sur les données et mises en œuvre sous la forme de modèles génératifs. Cette approche contrainte par la physique garantit que les solutions restent compatibles avec les données et évite les « hallucinations » qui affectent généralement la plupart des applications génératives de l'IA.

Cependant, malgré les progrès remarquables réalisés au cours des dernières années, plusieurs défis subsistent dans le cadre évoqué ci-dessus, et plus particulièrement :

[Données à priori imparfaites ou avec une distribution décalée] La construction de données à priori nécessite généralement l'accès à des exemples de données non corrompues qui, dans de nombreux cas, n'existent pas (par exemple, toutes les images astronomiques sont observées avec du bruit et une certaine quantité de flou), ou qui peuvent exister mais dont la distribution peut être décalée par rapport aux problèmes auxquels nous voudrions appliquer ce distribution à priori.
Ce décalage peut fausser les estimations et conduire à des conclusions scientifiques erronées. Par conséquent, l'adaptation, ou l'étalonnage, des antécédents basés sur les données à partir d'observations incomplètes et bruyantes devient cruciale pour travailler avec des données réelles dans les applications astrophysiques.

[Échantillonnage efficace de distributions a posteriori à haute dimension] Même si la vraisemblance et l'à priori basé par les données sont disponibles, l'échantillonnage correct et efficace de distributions de probabilités multimodales non convexes dans des dimensions si élevées reste un problème difficile. Les méthodes les plus efficaces à ce jour reposent sur des modèles de diffusion, mais elles s'appuient sur des approximations et peuvent être coûteuses au moment de l'inférence pour obtenir des estimations précises des distributions a posteriori souhaités.

Les exigences strictes des applications scientifiques sont un moteur puissant pour l'amélioration des méthodologies, mais au-delà du contexte scientifique astrophysique qui motive cette recherche, ces outils trouvent également une large application dans de nombreux autres domaines, y compris les images médicales [3].

Projet de doctorat
Le candidat visera à répondre à ces limitations des méthodologies actuelles, avec l'objectif global de rendre la quantification de l'incertitude pour les problèmes inverses à grande échelle plus rapide et plus précise.
Comme première direction de recherche, nous étendrons une méthodologie récente développée simultanément par notre équipe et nos collaborateurs de Ciela [4,5], basée sur l'algorithme d'espérance-maximisation, afin d'apprendre itérativement (ou d'adapter) des distributions à priori basés sur des méthodes de diffusion à des données observées sous un certain degré de corruption. Cette stratégie s'est avérée efficace pour corriger les décalages de la distribution á priori (et donc pour obtenir des distributions à posteriori bien calibrés). Cependant, cette approche reste coûteuse car elle nécessite la résolution itérative de problèmes inverses et le réentraînement des modèles de diffusion, et dépend fortement de la qualité du solveur de problèmes inverses. Nous explorerons plusieurs stratégies, notamment l'inférence variationnelle et les stratégies améliorées d'échantillonnage pour des problèmes inverses, afin de résoudre ces difficultés.
Dans une deuxième direction (mais connexe), nous nous concentrerons sur le développement de méthodologies générales pour l'échantillonnage de postérieurs complexes (géométries multimodales/complexes) de problèmes inverses non linéaires. En particulier, nous étudierons des stratégies basées sur le recuit (annealing) de la distribution à posteriori, inspirées de l'échantillonnage de modèles de diffusion, applicables dans des situations avec des vraisemblances et des distributions à priori explicites.
Finalement, nous appliquerons ces méthodologies à des problèmes inverses difficiles et à fort impact en astrophysique, en particulier en collaboration avec nos collègues de l'institut Ciela, nous viserons à améliorer la reconstruction des sources et des lentilles des systèmes de lentilles gravitationnelles fortes.
Des publications dans les meilleures conférences sur l'apprentissage automatique sont attendues (NeurIPS, ICML), ainsi que des publications sur les applications de ces méthodologies dans des revues d'astrophysique.

Références
[1] Benjamin Remy, Francois Lanusse, Niall Jeffrey, Jia Liu, Jean-Luc Starck, Ken Osato, Tim Schrabback, Probabilistic Mass Mapping with Neural Score Estimation, https://www.aanda.org/articles/aa/abs/2023/04/aa43054-22/aa43054-22.html

[2] Tobías I Liaudat, Matthijs Mars, Matthew A Price, Marcelo Pereyra, Marta M Betcke, Jason D McEwen, Scalable Bayesian uncertainty quantification with data-driven priors for radio interferometric imaging, RAS Techniques and Instruments, Volume 3, Issue 1, January 2024, Pages 505–534, https://doi.org/10.1093/rasti/rzae030

[3] Zaccharie Ramzi, Benjamin Remy, Francois Lanusse, Jean-Luc Starck, Philippe Ciuciu, Denoising Score-Matching for Uncertainty Quantification in Inverse Problems, https://arxiv.org/abs/2011.08698

[4] François Rozet, Gérôme Andry, François Lanusse, Gilles Louppe, Learning Diffusion Priors from Observations by Expectation Maximization, NeurIPS 2024, https://arxiv.org/abs/2405.13712

[5] Gabriel Missael Barco, Alexandre Adam, Connor Stone, Yashar Hezaveh, Laurence Perreault-Levasseur, Tackling the Problem of Distributional Shifts: Correcting Misspecified, High-Dimensional Data-Driven Priors for Inverse Problems, https://arxiv.org/abs/2407.17667

Dévelopement d'algorithmes de trajectographie basés sur l'apprentissage machine pour le futur Upstream Tracker de LHCb au LHC

Cette proposition vise à développer et améliorer les futures performances de trajectographie de l'expérience LHCb au Grand collisionneur de hadrons (LHC) via l’étude de divers algorithmes basés sur l'apprentissage machine automatique. Parmi les systèmes de trajectographie de LHCb, le sous-détecteur Upstream Tracker (UT) joue un rôle crucial dans la réduction du taux de fausses traces reconstruites dès les premières étapes du processus de reconstruction. Dans l'optique de pouvoir mener à bien les futures études de désintégrations rares de particules, la violation CP dans le Modèle standard, et l'étude du plasma de Quark et Gluon dans les collisions Pb-Pb, une trajectographie précise dans LHCb est obligatoire.

Avec les mises à jour du détecteur prévues d'ici 2035 et l'augmentation anticipée des taux de données, les méthodes de trajectographie traditionnelles risquent de ne pas répondre aux exigences computationnelles, notamment dans les collisions noyau-noyau où des milliers de particules sont produites. Durant la thèse, nous explorerons une gamme de techniques basées sur l'apprentissage machine automatique, comme celles déjà appliquées avec succès dans le Vertex Locator (VELO) de LHCb, pour améliorer la performance de trajectographie de l'UT. En appliquant des méthodes variées, nous visons à améliorer la reconstruction des trajectoires aux premiers stades de la reconstruction, accroître l'efficacité de trajectographie et réduire le taux de fausses traces. Parmi ces techniques, les réseaux de neurones graphiques (Graph Neural Networks, GNN) représentent une option particulièrement prometteuse grâce à l'exploitation des corrélations spatiales et temporelles des hits du détecteur.

Cette exploration de nouvelles méthodes impliquera des développements adaptés au matériel hardware, qu’il s’agisse de GPU, CPU ou FPGA, tous potentiellement présent dans l'architecture de reconstruction du futur LHCb. Nous comparerons les différents algorithmes par rapport aux méthodes de trajectographie actuelles afin de quantifier les améliorations en termes de performance, de scalabilité et d'efficacité computationnelle. De plus, nous prévoyons d’intégrer les algorithmes les plus performants au sein du logiciel de LHCb de de garantir leur compatibilité avec les pipelines de données existants.

Caliste-3D CZT: développement d’un spectro-imageur gamma miniature, monolithique et hybride à efficacité améliorée dans la gamme 100 keV à 1 MeV et optimisé pour la détection de l’effet Compton et la localisation sous-pixel

L’observation multi-longueur d’onde des sources astrophysiques est la clé d’une compréhension globale des processus physiques en jeu. En raison de contraintes instrumentales, la bande spectrale de 0,1 à 1 MeV est celle qui souffre le plus d’une sensibilité insuffisante de détection dans les observatoires existants. Ce domaine permet d’observer les noyaux actifs de galaxies les plus enfouis et les plus lointains pour mieux comprendre la formation et l’évolution des galaxies à des échelles cosmologiques. Il relève des processus de nucléosynthèse des éléments lourds de notre Univers et l’origine des rayons cosmiques omniprésents dans l’Univers. La difficulté intrinsèque de la détection dans ce domaine spectral réside dans l’absorption de ces photons très énergétiques après des interactions multiples dans le matériau. Cela requiert une bonne efficacité de détection mais également une bonne localisation de toutes les interactions pour en déduire la direction et l’énergie du photon incident. Ces enjeux de détection sont identiques pour d’autres applications à fort impact sociétal et environnemental : le démantèlement et l’assainissement des installations nucléaires, le suivi de la qualité de l’air, la dosimétrie en radiothérapie.
Cette thèse d’instrumentation a pour objectif de développer un détecteur « 3D » polyvalent, exploitable dans les domaines de l’astrophysique et de la physique nucléaire, avec une meilleure efficacité de détection dans la gamme 100 keV à 1 MeV et des évènements Compton, ainsi que la possibilité de localiser les interactions dans le détecteur à mieux que la taille d’un pixel.
Plusieurs groupes dans le monde, dont le nôtre, ont développé des spectro-imageurs X dur à base de semi-conducteurs haute densité pixélisés pour l’astrophysique (CZT pour NuSTAR, CdTe pour Solar Orbiter et Hitomi), pour le synchrotron (Hexitec UK, RAL) ou pour des applications industrielles (Timepix, ADVACAM). Leur gamme d’énergie reste toutefois limitée à environ 200 keV (sauf pour Timepix) en raison de la faible épaisseur des cristaux et de leurs limitations intrinsèques d’exploitation. Pour repousser la gamme en énergie au-delà du MeV, il faut des cristaux plus épais associés à des bonnes propriétés de transport des porteurs de charge. Cela est actuellement possible avec du CZT, mais nécessite néanmoins de relever plusieurs défis.
Le premier défi était la capacité des industriels à fabriquer des cristaux de CZT homogènes épais. Les avancées dans ce domaine depuis plus de 20 ans nous permettent aujourd’hui d’envisager des détecteurs jusqu’à au moins 10 mm d’épaisseur (Redlen, Kromek).
Le principal défi technique restant est l’estimation précise de la charge générée par interaction d’un photon dans le semi-conducteur. Dans un détecteur pixélisé où seules les coordonnées X et Y de l’interaction sont enregistrées, augmenter l’épaisseur du cristal dégrade les performances spectrales. Obtenir l’information de profondeur d’interaction Z dans un cristal monolithique permet théoriquement de lever le verrou associé. Cela nécessite le déploiement de méthodes expérimentales, de simulations physiques, de conception de circuits de microélectronique de lecture et de méthodes d’analyse de données originales. De plus, la capacité à localiser les interactions dans le détecteur à mieux que la taille d’un pixel contribue à résoudre ce défi.

Analyse multi-messager des explosions de supernovae

Les supernovae a` effondrement de cœur jouent un rôle pivot dans l’évolution stellaire des étoiles massives, la naissance des étoiles à neutrons et des trous noir, et l’enrichissement chimique des galaxies. Comment explosent-elles ? Le mécanisme d’explosion peut être éclairé par l’analyse des signaux multi-messager: la production de neutrinos et d’ondes gravitationnelles est modulée par les instabilités hydrodynamiques pendant la seconde qui suit la formation d’une proto-étoile à neutrons.
Cette the`se propose d’utiliser la complémentarité des signaux multi-messager d’une supernova a` effondrement de cœur, à la lumière des simulations numériques de la dynamique de l’effondrement et de l'analyse perturbative, pour en extraire les informations physiques sur le mécanisme d’explosion.
Le projet abordera plus spécifiquement les propriétés multi-messager de l'instabilité du choc stationnaire ("SASI") et de l'instabilite´ de corotation ("low T/W") pour un progéniteur en rotation. Pour chacune de ces instabilités, les informations de composition des neutrinos et de polarisation des ondes gravitationnelles seront exploitées, ainsi que la corrélation entre ces signaux.

RECHERCHE DE LA DÉSINTÉGRATION NUCLÉAIRE EN DEUX PHOTONS

La désintégration nucléaire à deux photons, ou double-gamma, est un mode de désintégration rare dans les noyaux atomiques, par lequel un noyau dans un état excité émet deux rayons gamma simultanément. Les noyaux pairs avec un premier état excité 0+ sont des cas favorables à la recherche d'une branche de désintégration double-gamma, puisque l'émission d'un seul rayon gamma est strictement interdite pour les transitions 0+ to 0+ en raison de la conservation du moment angulaire. La désintégration double-gamma reste encore une branche de désintégration très petite (<1E-4) en compétition avec les modes de désintégration dominants (de premier ordre) des électrons de conversion interne atomique (ICE) ou de la création de paires internes positron-électron (e+-e-) (IPC).

Le projet de thèse comporte deux parties expérimentales distinctes: Premièrement, nous stockons des ions nus (entièrement épluchés) dans leur état excité 0+ dans l'anneau de stockage d'ions lourds (ESR) au GSI pour rechercher la désintégration double-gamma dans plusieurs nucléides. Pour les atomes neutres, l'état excité 0+ est un état isomérique à durée de vie plutôt courte, de l'ordre de quelques dizaines à quelques centaines de nanosecondes. Cependant, aux énergies relativistes disponibles au GSI, tous les ions sont entièrement épluchés de leurs électrons atomiques et la désintégration par émission ICE n'est donc pas possible. Si l'état d'intérêt est situé en dessous du seuil de création de paires, le processus IPC n'est pas non plus possible. Par conséquent, les noyaux nus sont piégés dans un état isomérique à longue durée de vie, qui ne peut se désintégrer que par émission double-gamma vers l'état fondamental. La désintégration des isomères est identifiée par la spectroscopie de masse Schottky résolue dans le temps. Cette méthode permet de distinguer l'isomère et l'état fondamental par leur temps de révolution (très légèrement) différent dans l'ESR, et d'observer la disparition du pic de l'isomère dans le spectre de masse avec un temps de décroissance caractéristique. Des expériences établissant la désintégration double-gamma dans plusieurs nucléides (72Ge, 98Mo, 98Zr) ont déjà été réalisées avec succès et une nouvelle expérience a été acceptée par le comité de programme du GSI et sa réalisation est prévue pour 2025.

La deuxième partie concerne l'observation directe des photons émis à l'aide de la spectroscopie des rayons gamma. Alors que les expériences sur les anneaux de stockage permettent de mesurer la durée de vie partielle de la double désintégration gamma, des informations supplémentaires sur les propriétés nucléaires ne peuvent être obtenues qu'en mesurant les photons eux-mêmes. Une expérience test a été réalisée pour étudier sa faisabilité et les plans d'une étude plus détaillée devraient être élaborés dans le cadre du projet de doctorat.

Vers un detecteur pixel à haute resolution spatiale pour l’identification de particules: contribution de nouveaux détecteurs à la physique

Les expériences de physique des particules sur les futurs collisionneurs linéaires à e-e+ nécessitent des progrès dans la résolution spatiale des détecteurs de vertex (jusqu’au micron), ceci afin de déterminer précisément les vertex primaires et secondaires pour des particules de grande impulsion transverse. Ce type de détecteur est placé près du point d’interaction. Ceci permettra de faire des mesures de précision en particulier pour des particules chargées de faible durée de vie. Nous devons par conséquent développer des matrices comprenant des pixels de dimension inférieure au micron-carré. Les technologies adéquates (DOTPIX, Pixel à Puit/Point quantique) devraient permettre une avance significative en reconstruction de trace et de vertex. Bien que le principe de ces nouveaux dispositifs ait été étudié à l’IRFU (voir référence), ce travail de doctorat devrait se focaliser sur l’étude de dispositifs réels qui devraient alors être fabriqués garce aux nanotechnologies en collaboration avec d’autres Instituts. Cela requiert l’utilisation de codes de simulation et la fabrication de structures de test. Les applications en dehors de la physique se trouvent pour l’essentiel dans l’imagerie X et éventuellement les cameras holographiques dans le visible.

Les amas de galaxies dans le champ profond FornaX XMM-Euclid

Le projet XMM Heritage sur le champ DEEP Euclid Fornax a pour but de caractériser les amas de galaxies distants en comparant les détections en X et en optique/IR. Les deux méthodes font appel à des propriétés des amas très différentes ; ultimement, leur combinaison permettra de fixer les paramètres libres de la fonction de sélection des amas Euclid sur tout le survey WIDE, et constituera donc un ingrédient fondamental pour l’analyse cosmologique Euclid.

La gamme de redshift visée ([1-2]) n'a jamais pu être explorée de manière systématique alors qu'elle constitue un domaine critique pour l'utilisation des amas en cosmologie.
Avec FornaX, pour la première fois, on aura accès à un grand volume à ces redshifts, ce qui permettra de quantifier statistiquement l'évolution des amas : rôle des AGN dans les propriétés du gaz intra-amas ? Existe-t-il des amas massifs déficients en gaz ? Quelles sont les biais respectifs de détection en X et en optique ?
Le travail de thèse consistera en (1) la construction et la validation du catalogue d’amas X ; (2) la corrélation avec les catalogues en optique/IR obtenus par Euclid (3) l’étude de l’évolution combinée X-optique des amas.
Tous les algorithmes de détection et de caractérisation des amas dans les images XMM existent, mais on poussera la détection plus profondément en utilisant des techniques d’intelligence artificielle (combinant l’information spatiale et spectrale sur les sources). Le problème complexe de la corrélation spatiale entre les catalogues d’amas XMM et Euclid fera aussi intervenir l’IA.

Site du projet : https://fornax.cosmostat.org/

DEVELOPMENT OF AN AI-BASED FRAMEWORK IN NEUTRINO PHYSICS: A FOCUS ON TIME SERIES EVENT RECONSTRUCTION AND MULTIVARIATE SCIENCE ANALYSES

Neutrinoless double beta decay (0nßß) represents a pivotal area of research in nuclear physics, offering profound insights into neutrino properties and the potential violation of lepton number conservation. The CUPID experiment is at the forefront of this investigation, employing advanced scintillating bolometers at cryogenic temperatures to minimize radioactive background noise. It aims to achieve unprecedented sensitivity in detecting 0nßß decay using lithium molybdate (Li2MoO4) crystals. These crystals are particularly advantageous due to their scintillation properties and the high Q-value of the decay process, which lies above most environmental gamma backgrounds. In turn this endeavour will require operating a fine grained array of 1596 dual heat/light detectors with excellent energy resolution. The proposed thesis integrates artificial intelligence (AI) techniques to enhance data analysis, reconstruction, and modeling for the CUPID experiment demonstrators and the science exploitation of CUPID.

The thesis will focus on two primary objectives:
1. Improved Time Series Event Reconstruction Techniques
- CNN based denoising and comparison against optimal classical techniques
2. Multivariate science analysis of a large neutrino detector array
- Analysis of Excited States: The study will use Geant4 simulations together with the CUPID background model as training data to optimize the event classification and hence science potential for the analysis of 2nßß decay to excited states.

Exploration de la dynamique des gluons dans le proton via la photoproduction exclusive du méson phi avec CLAS12

Les protons et neutrons sont constitués de partons (quarks et gluons) qui interagissent via la force forte, régie par la Chromodynamique Quantique (QCD). Si la QCD est calculable à haute énergie, sa complexité se révèle à basse énergie, nécessitant des contributions expérimentales pour comprendre les propriétés des nucléons, telles que leur masse et leur spin. L'extraction expérimentale des Distributions Généralisées des Partons (GPDs), qui décrivent les impulsions longitudinales et les positions transverses des partons dans les nucléons, fournit des informations cruciales sur ces propriétés fondamentales.
Cette thèse se concentre sur l’analyse des données du détecteur CLAS12, une expérience faisant partie de l'infrastructure de recherche du Jefferson Lab, l'un des 17 laboratoires nationaux aux États-Unis. CLAS12, un détecteur de 15 mètres de long à cible fixe et à grande acceptation, est dédié à la physique hadronique, notamment à l'extraction des GPDs. L'étudiant/e sélectionné/e étudiera la photoproduction exclusive du méson phi (gamma p -->phi p’), sensible aux GPDs des gluons, encore largement inexplorées. Il/elle développera un cadre pour étudier cette réaction dans le canal de désintégration leptonique (phi --> e+e-) et concevra un algorithme novateur basé sur des Graph Neural Network pour améliorer l'efficacité de détection des protons diffusés.
La thèse visera à extraire la section efficace de la photoproduction du phi et à l'interpréter en termes de distribution de masse dans les protons. Réalisé au Laboratoire de Structure du Nucléon (LSN), ce projet implique une collaboration internationale au sein de la collaboration CLAS, des voyages au Jefferson Lab pour la collecte de données, et des présentations lors de conférences. La maîtrise de la physique des particules, de la programmation (C++/Python) et de l’anglais est requise. Des connaissances de base en détecteurs de particules et en apprentissage automatique sont un atout, mais non obligatoires.

Recherche de nouvelle physique via la production résonante de paires de bosons de Higgs

Depuis la découverte du boson de Higgs (H) en 2012 par les expériences ATLAS et CMS, et après un peu plus de 10 ans passés à étudier ses propriétés, en particulier grâce aux larges ensembles de données du Run 2 du LHC collectés par les deux collaborations entre 2015 et 2018, tout semble indiquer que nous avons finalement complété le Modèle Standard (MS), tel qu’il avait été prédit il y a soixante ans. Cependant, malgré le succès de cette théorie, de nombreuses questions restent sans réponse, et des études approfondies du secteur scalaire du MS pourraient nous donner des indices pour les aborder.

L'étude de la production double de bosons de Higgs (HH) suscite actuellement un intérêt particulier dans la communauté de physique des hautes énergies, car elle constitue le meilleur moyen expérimental d'accéder à l'auto-couplage du H, et par conséquent au potentiel de Higgs V(H). Grâce à ses liens directs avec la transition de phase électrofaible (EWPT), la forme de V(H) revêt une importance particulière pour les modèles au-delà du Modèle Standard (BSM) qui tentent, par exemple, d'expliquer la baryogenèse primordiale et l'asymétrie entre la matière et l'antimatière dans notre univers. Certaines de ces modèles prédisent un secteur scalaire étendu, impliquant l'existence de bosons de Higgs additionnels, souvent interagissant de manière privilégiée avec le H du MS.

Le groupe CMS du CEA-Saclay/IRFU/DPhP souhaite donc proposer une thèse sur la recherche de la production HH résonante, se focalisant sur le canal H(bb)H(tautau), dans l'objectif de contraindre les modèles en question, et impliquant pour la première fois une caractérisation complête du signal BSM et de ses interférences avec le MS. L’étudiant(e) sélectionné(e) prendra part à des activités de recherche déjà bien établies au sein de la collaboration CMS, et du groupe du CEA, en lien avec plusieurs instituts en France et à l’étranger.

Top