Groupe de renormalisation fonctionnel pour la structure nucléaire
Le noyau de l'atome est l'un des systèmes les plus complexes de la nature : il implique des nucléons (eux-mêmes composés de quarks et gluons) fortement couplés par leurs interactions fortes et électrofaibles et est le siège de divers phénomènes émergeants (déformations, superfluidités, agrégation, ...). La physique de la structure nucléaire cherche à comprendre et prédire comment un nombre arbitraire de protons et neutrons s'auto-organisent et se désorganisent dans le noyau. Parmi les différentes approches théoriques cherchant à répondre à cette question, la méthode de l'Energie Fonctionnelle de la Densité (EDF), proche (mais pas identique) de la théorie de la fonctionnelle de la densité (DFT), offre actuellement le meilleur compromis entre robustesse de la description des propriétés nucléaires et coût numérique. Toutefois, la méthode EDF, dans sa formulation standard, comporte des ingrédients phénoménologiques nuisant à son caractère prédictif.
L'objectif de ce post-doctorat consiste à formuler la méthode EDF à partir de principes premiers, afin de disposer d'une approche théorique présentant une fiabilité maximale tout en possédant une complexité numérique suffisamment favorable pour l'appliquer à la description de tous les noyaux, indépendamment du nombre de nucléons qu'ils comportent. Les travaux précédents de l'équipe d'accueil ont permis d'identifier le langage théorique le plus adapté à une reformulation non empirique de la méthode EDF : celui du groupe de renormalisation fonctionnel (FRG), permettant d’interpoler graduellement et non perturbativement entre les lois gouvernant un système aux échelles microscopiques (UV) et celles régissant l’émergence de comportements collectifs à plus faible résolution (IR).
Le présent projet vise à formuler à partir de premiers principes la méthode EDF via le FRG.
Evolution des codes ISAAC et Xpn pour une extension de la méthode QRPA au traitement complet des noyaux impairs ; vers une base de données sans interpolation pour les noyaux impairs
Le traitement explicite des noyaux à isospin impair dans les approches microscopiques se limite pour l’instant à l’approximation dite du « blocking ». Dans l’approche Hartree-Fock Bogolyubov (HFB), l’état fondamental d’un noyau de masse impaire est décrit comme une excitation à une quasi-particule (qp) sur son vide de référence. Ainsi, dans l’approche QRPA, où les excitations de base sont des états «?à 2 quasi-particules?», la qp bloquée est exclue de l’espace de valence en vertu du principe d’exclusion de Pauli?; principe applicable aux quasi-particules qui sont des fermions. En conséquence, la qp choisie est spectatrice et ne participe pas aux états collectifs QRPA. Certains niveaux où le nucléon célibataire devrait avoir une contribution significative seront alors soit mal, soit pas du tout, reproduits. La mise au point dans les codes QRPA (ISAAC et Xpn) d’une procédure qui permette à tous les nucléons de participer aux états collectifs est donc d’importance capitale pour une description microscopique des noyaux impairs, préférable à une simple interpolation entre noyaux pairs. De plus, des développements récents de Xpn ont permis la description des décroissances ß- premières interdites, ce qui améliore l’estimation de temps de demi-vie des fragments de fission. Ceci pourrait être étendu afin de traiter également les décroissances ß+ et les captures électroniques. Couplée avec un meilleur traitement des noyaux impairs, cette approche pourrait être adaptée aux calculs à grandes échelles, utiles également pour l’astrophysique nucléaire.
Application des techniques de factorisation de tenseurs au problème nucléaire à N corps
Les calculs ab initio des noyaux atomiques ont fait des progrès significatifs au cours de la dernière
décennie, avec une forte augmentation du nombre (et du type) de systèmes accessibles. Une des difficultés majeures empêchant actuellement d'étendre le domaine d'application et la précision des ces
calculs concerne le traitement de l'interaction à trois nucléons d'une part et l'incorporation des corrélations associées aux excitations "triples" vis-à-vis de l'état de champ moyen de référence d'autre part. Mathématiquement, les objets caractérisant ces quantités sont représentés sur l'ordinateur par des tenseurs à 6 indices, de tels tenseurs impliquant de stocker (à la fois sur disque et RAM) des tableaux multidimensionnels dont la dimension effective augmente rapidement avec le
nombre de nucléons dans le noyau. De fait, le traitement de ces tenseurs est aujourd'hui largement prohibitif pour les noyaux contenant plus de 100 nucléons. Réduire la taille (et le coût de stockage) de tels tableaux sans compromettre la précision des calculs est l'un des principaux problèmes ouverts dans la simulation des noyaux. L’objectif du postdoc consiste à considérer des idées issues des mathématiques appliquées pour parvenir à réduire efficacement la complexité numérique associée aux termes à 3 corps. Ces dernières sont basées sur le concept de factorisation de tenseurs et visent à décomposer les informations contenues dans le tenseur à 6 indices en somme de produits de tenseurs à 2 ou 3 indices, puis à tronquer la somme de manière contrôlée de telle sorte que le cout de stockage en est très largement réduit.
Développement d'une instrumentation multi-détecteurs modulaire pour la mesure de paramètres atomiques et nucléaires
Le projet LNE PLATINUM (PLATeforme d’Instrumentation NUmérique Modulable) a pour objectif de développer une plateforme modulable, dans le but de tester de nouvelles instrumentations utilisant deux ou plusieurs détecteurs en coïncidence. Le principe mis en œuvre dans ce projet s’appuie sur la détection simultanée d’interactions ayant lieu dans deux détecteurs différents, en recueillant des informations sur le type de particule et son énergie (spectroscopie). Ce principe est à la base de mesures absolues d’activité ou des systèmes actifs de réduction du fond continu pour améliorer les limites de détection. Mais il permet également de mesurer des paramètres caractérisant le schéma de désintégration, comme les coefficients de conversion interne, les rendements de fluorescence ou les corrélations angulaires entre les photons émis en cascade.
Fort de son expertise en données atomiques et nucléaire, le LNHB constate depuis de nombreuses années l’incomplétude des schémas de désintégration pour certains radionucléides. Ces schémas, établis lors de l’évaluation à partir des données mesurées existantes, présentent parfois des incohérences ou des transitions mal connues, en particulier en présence de transitions gamma fortement converties ou de très faible intensité (par exemple les études récentes sur 103Pa, 129I et 147Nd ont révélé de telles incohérences). Il apparaît donc important pour le LNHB de mieux maîtriser la technique de mesure en coïncidences, en tirant parti des nouvelles possibilités en termes d’acquisitions et d’horodatage des données pour apporter des compléments d’information sur les schémas de désintégration et contribuer à leur amélioration.