Construction d'interactions en théorie effective des champs pour la physique nucléaire théorique

La capacité d'un modèle du noyau à donner une description prédictive des phénomènes nucléaires (que ce soit dans un but théorique ou dans l’optique de produire des données nucléaires pour les applications) est conditionnée par la possibilité de construire un cadre théorique systématiquement améliorable, avec des approximations contrôlées et une estimation des incertitudes et biais associés. C'est l'objectif des méthodes dites ab initio, qui reposent sur deux étapes :
1 - La construction d'une interaction inter-nucléons compatible avec la théorie sous-jacente (la chromodynamique quantique) et ajustée dans les noyaux légers, suivant la théorie effective des champs (EFT).
2 - La résolution du problème nucléaire à A corps à une précision donnée (pour la structure ou les réactions) pour faire des prédictions pour tous les noyaux d'intérêt. La spécificité des méthodes ab initio permet et appelle à une propagation des incertitudes provenant de l'interaction jusqu'aux prédictions pour les données nucléaires.

Cette thèse s’inscrit principalement dans la 1ère étape. L'objectif de la thèse est de construire une famille d'interactions ab initio en développant une nouvelle procédure d'ajustement des paramètres de la théorie, appelés constantes de basse énergie (LECs), sur les données expérimentales disponibles (en incluant le calcul de covariances pour des analyses de sensitivité). L'ajustement se fera sur des données de structure mais aussi de réaction dans les noyaux légers. Ceci ouvrira en outre la porte à une nouvelle évaluation des sections p + n -> d + gamma (qui ont de larges incertitudes et sont néanmoins importantes pour les applications de neutronique) dans le cadre moderne des théories effectives de champs.

La thèse est en collaboration entre le CEA/IRESNE Cadarache et l'IJCLab d'Orsay, et sera partagée entre les deux instituts (18 mois au CEA/IRESNE, puis 18 mois à l'IJCLab). Les débouchés de la thèse incluent la recherche et les labos de R&D en physique nucléaire.

MESURE DE LA MASSE DU BOSON W AVEC LE DETECTEUR ATLAS AU LHC

L'objectif de la thèse est une mesure précise de la masse et de la largeur du boson W, en étudiant ses desintegrations leptoniques avec le détecteur ATLAS au LHC. L'analyse sera basée sur l'ensemble des données du Run 2 du LHC, et vise une précision sur la masse de 10 MeV.

Le candidat s'impliquera dans l'étude de l'alignement et de la calibration du spectromètre à muons d'ATLAS. L'IRFU a joué un rôle prépondérant dans la conception et la construction de cet instrument et s'implique fortement dans son exploitation scientifique. Il s'agira de combiner de manière optimale la mesure donnée par le spectromètre avec celle du détecteur interne d'ATLAS, à l'aide d'un modèle précis du champ magnétique et du positionnement relatif de ces systèmes, afin de reconstruire la cinématique des muons avec la précision requise pour la mesure.

La deuxième phase du projet consiste à améliorer la modélisation du processus de production et de désintégration des bosons W et d'optimiser l'analyse en tant que telle afin de minimiser l'incertitude finale de la mesure. Le résultat de la mesure sera combiné avec les autres mesures existantes, et interprété en termes de compatibilité avec la prédiction du Modèle Standard ou comme indication de la présence de nouvelle physique.

Modèles réduits de turbulence pour la fusion magnétique: quand sont-ils pris en défaut, comment les enrichir ?

L'un des principaux défis auxquels est confrontée la modélisation du plasma de fusion est la nature non linéaire de la réponse du plasma. Des facteurs tels que les gradients de température et de densité, les flux et les gradients de vitesse ont tous un impact croisé sur le transport de la chaleur, des particules et de la quantité de mouvement. La modélisation d'un tel système nécessite une hiérarchie d'approches, depuis le cadre dit "1ers principes" de la théorie gyrocinétique forcée par un flux jusqu’à des modèles plus simples, basés sur une approche quasi-linéaire. Ces dernières méthodes sont numériquement efficaces et particulièrement utiles pour interpréter les données expérimentales et explorer des scénarios expérimentaux. Toutefois, cette approche se heurte à deux difficultés majeures. Premièrement, la modélisation de la région périphérique du bord du plasma, à la transition entre les lignes de champ ouvertes et fermées, est difficile en raison de la confluence de physiques sous-jacentes très différentes. Deuxièmement, la modélisation du régime « proche du seuil marginal » est également délicate car elle implique un état d'équilibre dynamique où le comportement du système est autorégulé par des modes lents à grande échelle. Le calcul de cet état est ardu et requiert de s'éloigner de l'hypothèse typique de séparation des échelles de temps entre la turbulence et le transport, ce que permet une approche gyrocinétique forcée par un flux. Des travaux récents, notamment de notre équipe, suggèrent que les modèles de transport quasi linéaires actuels peuvent présenter des lacunes importantes à la fois dans la région périphérique et dans ce régime proche du seuil marginal, pertinent pour les machines du futur. Nous sommes maintenant en mesure d'aborder ces deux questions. Nous avons en effet accès à des outils développés au sein de notre collaboration, au meilleur niveau de la recherche dans ces deux thématiques.
Un des objectifs de la thèse vise à comparer finement les prédictions de transport au bord du plasma ainsi que dans des régimes proches du seuil marginal données par le code gyrocinétique GYSELA, forcé par un flux, avec celles du cadre intégré utilisant le modèle quasi-linéaire réduit QuaLiKiz. En parallèle à la recherche de désaccords entre ces deux approches –par le biais de simulations HPC (high performance computing)– dans des régimes que l'on soupçonne potentiellement problématiques, l'étudiant.e développera également des modèles réduits non-linéaires susceptibles de pallier les insuffisances observées de l'approche quasi-linéaire.

Top