Du détecteur à la découverte : construire le trajectographe interne d’ATLAS et explorer la physique du boson de Higgs au HL-LHC

Ce sujet de thèse combine un volet instrumental et un volet d’analyse physique lié à la physique du boson de Higgs au LHC. Il porte à la fois sur la construction et la mise en service du nouveau trajectographe de l’expérience ATLAS (ITk) et sur l’étude de la sensibilité d’ATLAS, durant la phase à haute luminosité du LHC (HL-LHC), à des processus clés mettant en jeu les couplages du boson de Higgs, fortement dépendants des performances de l’ITk. Le candidat participera au développement, à l’exploitation et à l’optimisation des bancs de test pour les modules à pixels ITk au CEA. Le CEA, en collaboration avec deux autres laboratoires de la région parisienne, est responsable de l’assemblage et des tests d’environ 20 % des modules à pixels de l’ITk. L’étudiant contribuera également à la mise en service du détecteur au CERN. Parallèlement, le doctorant mènera une analyse de physique visant à étudier la sensibilité des données d’ATLAS aux interactions entre le boson de Higgs et le quark top lors de la phase HL-LHC. Cela inclura notamment une analyse de la violation de CP dans le canal ttH, ainsi qu’une étude de la production tH, un processus particulièrement sensible aux couplages Higgs–top et Higgs–W. Les deux premières années de thèse seront basée au CEA Saclay, tandis que la dernière année sera basée au CERN.

Inférence conjointe basée sur la simulation des cartes tSZ et de la lentille gravitationnelle faible d'Euclide

Contexte :
La mission Euclid fournira des mesures de lentille gravitationnelle faible (weak lensing, WL) d’une précision sans précédent, susceptibles de révolutionner notre compréhension de l’Univers. Cependant, à mesure que les incertitudes statistiques diminuent, le contrôle des effets systématiques devient d’autant plus crucial. Parmi ceux-ci, la rétroaction baryonique — qui redistribue le gaz au sein des galaxies et des amas — demeure l’un des principaux effets systématiques astrophysiques limitant la capacité d’Euclid à contraindre l’équation d’état de l’énergie noire. Comprendre la rétroaction baryonique représente aujourd’hui l’un des défis les plus urgents de la cosmologie.

L’effet Sunyaev-Zel’dovich thermique (tSZ) offre une fenêtre unique sur la composante baryonique de l’Univers. Cet effet provient de la diffusion des photons du fond diffus cosmologique (CMB) par les électrons chauds présents dans les groupes et amas de galaxies. Ce même gaz chaud, redistribué par la rétroaction baryonique, est particulièrement pertinent pour la cosmologie des lentilles faibles. La corrélation croisée entre le signal tSZ et le signal WL permet d’étudier la manière dont les baryons tracent et modifient les structures cosmiques, offrant ainsi des contraintes conjointes sur la cosmologie et la physique baryonique.

La plupart des analyses actuelles du signal croisé tSZ–WL reposent sur l’ajustement des spectres de puissance angulaires en supposant une vraisemblance gaussienne. Cependant, le signal tSZ est fortement non gaussien, car il trace les structures massives de l’Univers, et les spectres de puissance ne capturent qu’une partie limitée de l’information contenue dans les données. Pour exploiter pleinement le potentiel scientifique des analyses tSZ–WL, il est donc essentiel de dépasser ces hypothèses simplificatrices.

Sujet de thèse :
L’objectif de ce projet de thèse est de développer un nouveau cadre d’analyse, basé sur des simulations, pour étudier conjointement les signaux tSZ et WL issus d’Euclid. Ce cadre combinera des modèles physiques directs (forward models) avec des techniques statistiques et d’apprentissage automatique avancées, afin de fournir des mesures précises de la rétroaction baryonique et des paramètres cosmologiques. En analysant conjointement les signaux tSZ et WL, ce projet renforcera la précision des analyses cosmologiques d’Euclid et améliorera notre compréhension de la connexion entre matière noire et baryons.

Cosmologie avec la forêt Lyman-alpha du grand relevé cosmologique DESI.

La distribution de matière à grande échelle dans l'univers est utilisée pour tester nos modèles cosmologiques. On utilise pour cela avant tout les oscillations acoustiques de baryons (BAO) mesurée dans la fonction de corrélation à deux points de cette distribution. Cependant l'ensemble du champ de matière contient des informations à diverses échelles, qui permettent de mieux contraindre nos modèles que le BAO seul. A redshift z > 2, la meilleure sonde de cette distribution de matière est la forêt Lyman-alpha, un ensemble de raies d'absorption mesurées dans les spectres de sources lointaines. Le grand relevé spectroscopique DESI a collecté environ un million de ces spectres. Avec un lot partiel de données "DR2", nous avons déjà mesuré le BAO avec une précision de 0.7%, contraignant ainsi fortement le taux d'expansion de l'univers au cours des premiers milliards d'années de son évolution.

Le but de cette thèse est d'exploiter l'ensemble complet des données Lyman-alpha à grande échelle de DESI pour obtenir les meilleures contraintes possibles sur les modèles cosmologiques. Pour cela, dans une première étape l'étudiant appliquera pour la première fois une méthode dite de reconstruction, qui permet d'améliorer la précision de la mesure du BAO, en exploitant l'information du champ de densité de matière. Dans la suite de sa thèse, en lien avec des efforts similaires menés dans notre groupe avec les galaxies de DESI, il implémentera une nouvelle méthode dite de simulation-based inference: dans cette approche l'ensemble du champ de matière est utilisé directement pour estimer les paramètres cosmologiques en particulier l'énergie noire. L'étudiant apportera ainsi une pierre importante aux mesures cosmologiques finales de DESI avec le Lyman-alpha.

Cette thèse sera de préférence précédée d'un stage.

Estimation impartiale du cisaillement pour Euclid avec modélisation automatiquement différentiable et accélérée par GPU

Le projet de thèse porte sur la mesure sans biais du cisaillement gravitationnel faible, un effet dû à la déviation de la lumière des galaxies par la matière présente sur la ligne de visée. Cette technique est essentielle pour étudier la matière noire, l’énergie noire et la gravité, et constitue un pilier de la mission spatiale Euclid, lancée en 2023. Les méthodes classiques de mesure des formes de galaxies introduisent des biais systématiques dans l’estimation du cisaillement. L’objectif de cette thèse est de développer une approche innovante de modélisation directe permettant d’inférer le cisaillement sans passer par la mesure de forme, en simulant des images de galaxies réalistes à l’aide d’architectures d’apprentissage profond. Le doctorant participera à l’adaptation de cette méthode aux données réelles d’Euclid, en intégrant la complexité du système de traitement des données (SGS) et en optimisant le calcul sur GPU et supercalculateurs. Ce travail s’inscrit dans un contexte très dynamique, coïncidant avec la première diffusion publique des données d’Euclid prévue pour 2026. Les résultats attendus sont une estimation du cisaillement plus précise et robuste, ouvrant la voie à des analyses cosmologiques de nouvelle génération.

De la toile cosmique aux galaxies : retracer l'accrétion de gaz à haut redshift par les observation et les simulations

Cette thèse vise à développer une compréhension intégrée des galaxies à haut redshift au sein de leurs structures à grande échelle. Nous étudierons comment les mécanismes de rétroaction (« feedback ») et l'activité nucléaire de ces galaxies affectent leur environnement, en couplant des données observationnelles avec des simulations cosmologiques.
Nos objectifs principaux sont de :
1. Faire progresser les capacités de diagnostic pour l'étude du gaz diffus.
2. Tester et valider les paradigmes actuels sur l'accrétion de gaz.
Notre travail observationnel s'appuiera sur de nouvelles données du télescope Keck et du Very Large Telescope concernant les halos Lyman-alpha autour de groupes et amas massifs à z>2, dont nous disposons déjà en grande partie. Nous intégrerons également les données de plus en plus nombreuses du télescope spatial James Webb (JWST) sur les mêmes cibles, afin de révéler les propriétés des galaxies et de leurs noyaux actifs (AGN).
Sur le plan théorique, nous utiliserons les résultats publics des simulations TNG100, HORIZON5 et CALIBRE pour comprendre l'évolution des galaxies, en tirant des enseignements des succès comme des échecs lors de la comparaison avec les observations. In fine, cela nous permettra de guider le développement de nouvelles simulations haute fidélité du milieu circum-galactique, conçues spécifiquement pour contraindre les processus d'accrétion de gaz.
Cette recherche soutient directement notre objectif à long terme de nous préparer à l'exploitation de BlueMUSE, un nouvel instrument en cours de construction pour le VLT auquel nous participons. Elle permettra également de répondre à l'une des questions ouvertes majeures en astrophysique, telle qu'identifiée par le rapport décennal Astro2020.

Méthode de réduction de dimensionalité appliquée à la théorie ab initio à N corps "coupled cluster" déformée

La description théorique des premiers principes, i.e. de manière dite ab initio, des noyaux atomiques contenant plus de 12 nucléons n’est devenue possible que récemment grâce aux développements cruciaux de la théorie à N corps et à la disponibilité d’ordinateurs hautes performances de plus en plus puissants. Ces techniques ab initio sont appliquées avec succès pour étudier la structure des noyaux, en partant des isotopes les plus légers et pour atteindre aujourd’hui tous les noyaux de masse moyenne contenant jusqu’à environ 80 nucléons. L’extension à des systèmes encore plus lourds nécessite des avancées décisives du point de vue du cout de stockage et du temps de calcul induits par les méthodes à N corps disponibles. Dans ce contexte, l’objectif de la thèse est de développer la méthode de réduction de dimensionalité fondée sur la factorisation des tenseurs mis en jeu dans le cadre de la théorie à N corps non perturbative dite de coupled cluster déformée (dCC). Le travail proposé exploitera les dernières avancées en théorie nucléaire, y compris l’utilisation des potentiels nucléaires issus de la théorie effective des champs chirale et des techniques du groupe de renormalisation, ainsi que des ressources et des codes de calcul haute performance.

L'apprentissage automatique pour l'analyse cosmologique des images de lentille gravitationnelle faible provenant du satellite Euclid

L'effet de lentille gravitationnelle faible, la distorsion des images de galaxies à haut redshift due aux structures de matière au long de la ligne de visée à grande échelle, est l'un des outils les plus prometteurs de la cosmologie pour sonder le secteur sombre de l'Univers. Le satellite spatial européen Euclide mesurera les paramètres cosmologiques avec une précision sans précédent. Pour atteindre cet objectif ambitieux, un certain nombre de sources d’erreurs systématiques doivent être quantifiées et comprises. L’une des principales origines des biais est liée à la détection des galaxies. Il existe une forte dépendance à la densité de galaxies locale et au fait que l'émission lumineuse de la galaxie chevauche les objets proches. Si elles ne sont pas traitées correctement, de telles galaxies « mélangées » (blended) biaiseront fortement toute mesure ultérieure de distorsions d'image à faible lentille.
L'objectif de cette thèse est de quanti?er et de corriger les biais de détection des lentilles faibles, notamment dus au mélange. À cette fin, des algorithmes modernes d’apprentissage automatique et profond, y compris des techniques d’auto-différenciation, seront utilisés. Ces techniques permettent une estimation très efficace de la sensibilité des biais liés aux propriétés des galaxies et des levés sans qu'il soit nécessaire de créer un grand nombre de simulations. L'étudiant effectuera des analyses d'inférence de paramètres cosmologiques des données de lentille faible d'Euclide. Les corrections des biais développées dans cette thèse seront inclutes à prior dans la mesure de formes de galaxies, où à postérior â l'aide de paramètres de nuisance, afin d'obtenir des mesures de paramètres cosmologiques avec une fiabilitlé requise pour une cosmologie de précision.

Inférence des paramètres cosmologiques à l’aide de prédictions théoriques des statistiques en ondelettes.

Lancé en 2023, le satellite Euclid observe le ciel dans les longueurs d'onde optiques et infrarouges pour cartifier la structure à grande échelle de l'Univers avec une précision inédite. Un pilier fondamental de sa mission est la mesure du cisaillement gravitationnel faible — de subtiles distorsions dans la forme des galaxies lointaines. Ce phénomène constitue une sonde cosmologique puissante, capable de retracer l'évolution de la matière noire et d'aider à distinguer les théories sur l'énergie noire de celles de la gravité modifiée. Traditionnellement, les cosmologues analysent les données de cisaillement faible à l'aide de statistiques du second ordre (comme le spectre de puissance) couplées à un modèle de vraisemblance gaussien. Cette approche établie rencontre cependant des défis significatifs :
- Perte d'information : Les statistiques du second ordre ne capturent toute l'information disponible que si la distribution de matière sous-jacente est gaussienne. En réalité, la toile cosmique est une structure complexe, composée d'amas, de filaments et de vides, ce qui rend cette approche intrinsèquement incomplète.
- Covariance complexe : La méthode nécessite l'estimation d'une matrice de covariance, qui est à la fois dépendante de la cosmologie et non-gaussienne. Ceci exige de réaliser des milliers de simulations numériques de type N-corps, extrêmement coûteuses en calcul, pour chaque modèle cosmologique, un effort souvent prohibitif.
- Effets systématiques : L'intégration des complications observationnelles — telles que les masques de survey, l'alignement intrinsèque des galaxies, et les effets de rétroaction baryonique — dans ce cadre théorique est notoirement difficile.

Face à ces limitations, un nouveau paradigme a émergé : l'inférence sans vraisemblance par modélisation directe (forward modelling). Cette technique contourne le besoin d'une matrice de covariance en comparant directement les données observées à des observables synthétiques générés par un modèle direct (forward model). Ses avantages sont profonds : elle élimine le fardeau de stockage et de calcul lié aux vastes ensembles de simulations, intègre naturellement l'information statistique d'ordre supérieur, et permet d'inclure de manière transparente les effets systématiques. Cependant, cette nouvelle méthode présente ses propres obstacles : elle demande des ressources de calcul (GPU) immenses pour traiter des surveys de l'envergure d'Euclide, et ses conclusions ne sont aussi fiables que les simulations sur lesquelles elle s'appuie, ce qui peut mener à des débats circulaires si les simulations et les observations divergent.

Une percée récente (Tinnaneni Sreekanth, 2024) ouvre une voie prometteuse. Ces travaux fournissent le premier cadre théorique permettant de prédire directement les principales statistiques en ondelettes des cartes de convergence — exactement le type de cartes qu'Euclide produira — pour un jeu de paramètres cosmologiques donné. Il a été démontré dans Ajani et al. (2021) que la norme L1 des coefficients en ondelettes est extrêmement puissante pour contraindre les paramètres cosmologiques. Cette innovation promet d'exploiter la puissance des statistiques non-gaussiennes avancées sans le surcoût computationnel traditionnel, ouvrant potentiellement la voie à une nouvelle ère de cosmologie de précision.
Nous avons démontré que cette prédiction théorique peut être utilisée pour construire un émulateur hautement efficace (Tinnaneni Sreekanth et al., 2025), accélérant considérablement le calcul de ces statistiques non-gaussiennes. Il est crucial de noter qu'à son stade actuel, cet émulateur ne fournit que la statistique moyenne et n'inclut pas la variance cosmique. En l'état, il ne peut donc pas encore être utilisé seul pour une inférence statistique complète.

Objectif de cette thèse de doctorat:
Cette thèse de doctorat vise à révolutionner l'analyse des données de cisaillement faible en construisant un cadre complet et intégré pour l'inférence cosmologique sans vraisemblance. Le projet commence par adresser le défi fondamental de la stochasticité : nous calculerons d'abord la covariance théorique des statistiques en ondelettes, fournissant une description mathématique rigoureuse de leur incertitude. Ce modèle sera ensuite intégré dans un générateur de cartes stochastiques, créant ainsi des données synthétiques réalistes qui capturent la variabilité intrinsèque de l'Univers.
Pour garantir la robustesse de nos résultats, nous intégrerons une suite complète d'effets systématiques — tels que le bruit, les masques observationnels, les alignements intrinsèques et la physique baryonique — dans le modèle direct. Le pipeline complet sera intégré et validé au sein d'un cadre d'inférence basée sur les simulations, en testant rigoureusement sa capacité à retrouver des paramètres cosmologiques non biaisés. L'aboutissement de ce travail sera l'application de notre outil validé aux données de cisaillement faible d'Euclide, où nous exploiterons l'information non-gaussienne pour poser des contraintes compétitives sur l'énergie noire et la gravité modifiée.

References
V. Ajani, J.-L. Starck and V. Pettorino, "Starlet l1-norm for weak lensing cosmology", Astronomy and Astrophysics,  645, L11, 2021.
V. Tinnaneri Sreekanth, S. Codis, A. Barthelemy, and J.-L. Starck, "Theoretical wavelet l1-norm from one-point PDF prediction", Astronomy and Astrophysics,  691, id.A80, 2024.
V. Tinnaneri Sreekanth, J.-L. Starck and S. Codis, "Generative modeling of convergence maps based in LDT theoretical prediction", Astronomy and Astrophysics,  701, id.A170, 2025.

Cacracterisation et calibration de détecteurs cryogéniques à l'échelle de 100 eV pour la détection de la diffusion cohérente des neutrinos (CEvNS)

DESCRIPTIONS:

L’expérience NUCLEUS [1] cherche à détecter les neutrinos de réacteur via la diffusion élastique cohérente neutrino-noyau (CEvNS). Prédit en 1974 et mis en évidence pour la première fois en 2017, ce processus donne accès à des tests inédits du modèle standard à basse énergie. La cohérence de la diffusion sur l’ensemble du noyau augmente de plusieurs ordres de grandeurs sa section efficace ce qui en fait également une opportunité pour la surveillance des réacteurs par les neutrinos. Le dispositif expérimental de NUCLEUS est en cours d’installation auprès des réacteurs EDF de Chooz (Ardennes, France) qui sont une source intense de neutrinos. Le seul signal physique d’un événement CEvNS est l’infime recul du noyau cible, avec une énergie très faible, inférieure à 1 keV. Pour le détecter NUCLEUS utilise des cristaux de CaWO4 d’environ 1 g, placés dans un cryostat qui les refroidis à une température de 15 mK. Le recul du noyau provoque des vibrations du réseau cristallin équivalentes à une élévation de la température de ~100 µK, mesurée à l’aide d’un capteur Transition Edge Sensor (TES) déposé sur le cristal. Ces détecteurs permettent d’atteindre d’excellentes résolutions en énergie de seulement quelques ~eV et des seuils de détection de l’ordre de ~10 eV [2]. Le dispositif expérimental de NUCLEUS a été testé et validé en 2024 à TU-Munich [3] et la prisse de données à Chooz commencera à l’été 2026, en même temps que la thèse. Une première contribution portera sur l’acquisition des données sur site réacteur et leur analyse. Plus spécifiquement, l’étudiant(e) sera en charge de la caractérisation des détecteurs cryogéniques en CaWO4 déployés : stabilité, résolution en énergie, calibration et bruit de fond intrinsèque au cristal.

La question de la calibration à l’échelle sub-keV est un point crucial des expériences de CEvNS (et de matière noire). Or jusqu’à présent il était très difficile de générer des reculs nucléaires d’énergie connue pour caractériser la réponse des détecteurs. La méthode CRAB [4,5] répond à ce besoin en utilisant la réaction de capture de neutrons thermiques (énergie de 25 meV) sur les noyaux constituant le détecteur cryogénique. Le noyau composé résultant a une énergie d’excitation bien connue, l’énergie de séparation d’un neutron, comprise entre 5 et 8 MeV selon les isotopes. Dans le cas où il se désexcite en émettant un seul photon gamma, le noyau va reculer avec une énergie qui est aussi parfaitement connue car donnée par la cinématique à deux corps. Un pic de calibration, dans la gamme recherchée de quelques 100 eV, apparaît alors dans le spectre en énergie du détecteur cryogénique. Une première mesure réalisée, en 2022, avec un détecteur en CaWO4 de l’expérience NUCLEUS et une source de neutrons commerciale (252Cf) a permis de valider la méthode [6].

La deuxième partie de la thèse s’inscrit dans la phase « haute précision » de ce projet qui consiste à réaliser des mesures avec un faisceau pur de neutrons thermiques du réacteur TRIGA-Mark-II à Vienne (TU-Wien, Autriche). Le dispositif expérimental de calibration a été installé et caractérisé avec succès en 2025 [7]. Il consiste en un cryostat contenant les détecteurs cryogéniques à caractériser, entouré de larges cristaux de BaF2 pour une détection en coïncidence du recul nucléaire et du rayon gamma qui a induit ce recul. L’ensemble est placé directement sur l’axe du faisceau qui fournit un flux d’environ 450 n/cm2/s. Cette méthode de coïncidence réduira significativement le bruit de fond et permettra d’étendre la méthode CRAB à un plus large domaine d’énergie et aux matériaux constitutifs de la plupart des détecteurs cryogéniques. Nous attendons de ces mesures une caractérisation unique de la réponse des détecteurs cryogéniques, dans un domaine d’intérêt pour la recherche de la matière noire légère et la diffusion cohérente de neutrinos. En parallèle de la mesure de reculs nucléaires, l’installation d’une source de rayons X de basse énergie dans le cryostat permettra de générer des reculs électroniques ce qui mènera à la comparaison directe de la réponse du détecteur à des dépôts d’énergie sous le keV produits par des reculs nucléaires et d’électrons.

L’arrivée en thèse de l’étudiant(e) coïncidera avec la finalisation du programme de mesure sur les détecteurs en CaWO4 et Al2O3 de NUCLEUS et avec le début du programme de mesures sur le Ge (détecteur du projet TESSERACT) ainsi que sur le Si (détecteur du projet BULLKID).
La haute précision permettra également l’ouverture d’une fenêtre de sensibilité à des effets fins couplant de la physique nucléaire (temps de désexcitation du noyau) et de la physique du solide (temps de recul du noyau dans la matière, création de défauts cristallins lors du recul d’un noyau) [8].

L’étudiant(e) sera fortement impliqué dans tous les aspects de l’expérience : la simulation, l’analyse et l’interprétation des résultats obtenus.

ETAPES DU TRAVAIL:

L’étudiant(e) participera activement aux prises de données et à l’analyse des premiers résultats des détecteurs cryogéniques en CaWO4 de NUCLEUS à Chooz. Ce travail sera réalisé en collaboration avec les groupes des départements de physique nucléaire (DPhN), de physique des particules (DPhP) du CEA-Saclay et avec l’équipe de TU-Munich. Il commencera par une prise en main du code d’analyse CAIT pour les détecteurs cryogéniques. L’étudiant(e) étudiera plus spécifiquement les aspects de calibration via la réponse des détecteurs aux reculs électroniques issus de pulses de photons optiques injectés par fibres et de rayons X de fluorescence induits par les rayons cosmiques. Une fois cette calibration établie deux types de bruit de fond seront étudiés : les reculs nucléaires induits dans la gamme du keV par les neutrons rapides cosmogéniques et un bruit fond à basse énergie, appelé Low Energy Excess (LEE), intrinsèque au détecteur. La comparaison en les spectres expérimentaux et simulés du bruit de fond de neutrons rapides sera discutée à la lumière des différences entre réponses nucléaires et électroniques mesurées dans le projet CRAB. Les longues périodes de prises de données sur le site de Chooz seront mises à profit pour étudier l’évolution temporelle du bruit LEE. Ce travail se fera dans le cadre d’une collaboration en cours avec des spécialistes de la physique des matériaux de l'Institut des Sciences Appliquées et de la Simulation (CEA/ISAS) pour comprendre l’origine du LEE, qui reste une question ouverte majeure dans la communauté des détecteurs cryogéniques.

Les compétences d’analyse acquises sur NUCLEUS seront ensuite mises à profit pour les campagnes de mesures CRAB de haute précision prévues en 2027 auprès du réacteur TRIGA (TU-Wien) avec des détecteurs en Ge et Si.L’étudiant(e) sera fortement impliqué(e) dans la mise en place de l’expérience, dans la prise de données et l’analyse des résultats. Ces mesures prévues sur le Ge dans les canaux phonon et ionisation, ont le potentiel de lever l’ambiguïté actuelle sur le rendement d’ionisation des reculs nucléaires à basse énergie, qui sera un facteur déterminant de la sensibilité des expériences.

La haute précision de la calibration sera également exploitée pour étudier des effets fins de physique nucléaire et du solide (effets de timing et de création de défauts cristallins par le recul du noyau dans le détecteur). Cette étude sera réalisée en synergie avec les équipes de l’IRESNE et de l’ISAS au CEA qui nous fournissent des simulations détaillées des cascades gamma de désexcitation nucléaire et des simulations de dynamique moléculaire pour le recul des noyaux dans la matière.

A travers ce travail l’étudiant(e) aura une formation complète de physicien(ne) expérimentateur(trice) avec de fortes composantes de simulation et d’analyse de données, mais aussi un apprentissage des techniques de cryogénie dans le cadre de la mise en service des détecteurs de NUCLEUS et CRAB. Les contributions proposées mèneront à plusieurs publications durant la thèse avec une forte visibilité dans les communautés de la diffusion cohérente de neutrino et de la recherche de matière noire.

Au sein du CEA il (elle) bénéficiera du caractère exceptionnellement transverse de ce projet qui met déjà en interaction régulière les communautés de physique nucléaire, physique des particules et physique de la matière condensée.

COLLABORATIONS:

NUCLEUS: Allemagne (TU-Munich, MPP), Autriche (HEPHY, TU-Wien), Italie (INFN), France (CEA-Saclay).
CRAB: Allemagne (TU-Munich, MPP), Autriche (HEPHY, TU-Wien), Italie (INFN), France (CEA-Saclay, CNRS-IJCLab, CNRS-IP2I, CNRS-LPSC).

REFERENCES:

[1] NUCLEUS Collaboration, Exploring CE?NS with NUCLEUS at the Chooz nuclear power plant, The European Physical Journal C 79 (2019) 1018.
15, 48, 160, 174
[2] R. Strauss et al., Gram-scale cryogenic calorimeters for rare-event searches, Phys. Rev. D 96 (2017) 022009. 16, 18, 78, 174
[3] H. Abele et al., Particle background characterization and prediction for the NUCLEUS reactor CE?NS experiment, https://arxiv.org/abs/2509.03559
[4] L. Thulliez, D. Lhuillier et al. Calibration of nuclear recoils at the 100 eV scale using neutron capture, JINST 16 (2021) 07, P07032
(https://arxiv.org/abs/2011.13803)
[5]https://irfu.cea.fr/dphp/Phocea/Vie_des_labos/Ast/ast.php?id_ast=4970
[6] H. Abele et al., Observation of a nuclear recoil peak at the 100 eV scale induced by neutron capture, Phys. Rev. Lett. 130, 211802 (2023) (https://arxiv.org/abs/2211.03631)
[7] H.Abele et al., The CRAB facility at the TUWien TRIGA reactor: status and related physics program, (https://arxiv.org/abs/2505.15227)
[8] G. Soum-Sidikov et al., Study of collision and ?-cascade times following neutron-capture processes in cryogenic detectors Phys. Rev. D
108, 072009 (2023) (https://arxiv.org/abs/2305.10139)

Recherche d’axions dans l’expérience SuperDAWA avec aimants supraconducteurs et radiométrie hyperfréquence

Les axions sont des particules hypothétiques qui pourraient à la fois expliquer un problème fondamental de la physique des interactions fortes (la conservation de la symétrie CP en QCD) et constituer une part importante de la matière noire. Leur détection directe représente donc un enjeu majeur en physique fondamentale et en cosmologie.

L’expérience SuperDAWA, en cours de construction au CEA Saclay, repose sur l’utilisation d’aimants supraconducteurs et d’un radiomètre hyperfréquence placé dans un cryostat cryogénique. Ce dispositif permettra de convertir des axions potentiels en ondes radio mesurables, dont la fréquence est directement liée à leur masse.

Le travail de thèse proposé se partagera entre modélisation numérique et participation à l’expérience. L’étudiant·e développera un modèle complet intégrant les champs magnétiques, la propagation du signal radio et la réponse de l’électronique, avec une validation progressive par des mesures réelles. Une fois l’expérience opérationnelle, le·la doctorant·e participera aux campagnes de prises de données et à leur analyse.

Ce projet offrira l’opportunité unique de contribuer à une expérience de pointe en physique expérimentale, avec des retombées directes sur la recherche mondiale de matière noire.

Top