Préconditionnement de schémas itératifs pour la résolution en éléments finis mixte d’un problème aux valeurs propres appliquée à la neutronique.

La neutronique est l’étude du cheminement des neutrons dans la matière et des réactions qu’ils y induisent, en particulier la génération de puissance par la fission de noyaux lourds. La modélisation du flux de neutrons stationnaire dans un cœur de réacteur repose sur la résolution d’un problème aux valeurs propres généralisé de la forme :
Trouver (phi, keff) tel que A phi=1/keff B phi et keff est la valeur propre de plus grand module, où A est la matrice de disparition supposée inversible, B représente la matrice de production, phi désigne le flux de neutrons et keff est appelé le facteur de multiplication.

L’outil de calcul neutronique APOLLO3® est un projet commun du CEA, Framatome et EDF pour le développement d’un code de nouvelle génération pour la physique de cœurs de réacteurs pour à la fois des besoins de R&D et des applications industrielles [4].
Le solveur MINOS [2] est développé dans le cadre du projet APOLLO3®. Ce solveur est basé sur la discrétisation en éléments finis mixtes du modèle de diffusion neutronique ou du modèle de transport simplifié. La stratégie de résolution du problème aux valeurs propres généralisé ci-dessus est itérative ; elle consiste à appliquer l’algorithme de la puissance inverse [6].

La vitesse de convergence de cet algorithme de la puissance inverse dépend du gap spectral. Dans le cadre des cœurs de grande taille tels que le réacteur EPR, on observe que le gap spectral est proche de 1, ce qui dégrade la convergence l’algorithme de la puissance inverse. Il est nécessaire d’appliquer des techniques d’accélération de manière à réduire le nombre d’itérations [7]. Dans le cadre du transport neutronique, le préconditionnement appelé Diffusion Synthetic Acceleration est très populaire pour l’itération dite « interne » [1] mais également récemment appliqué à l’itération dite « externe » [3]. Une variante de cette méthode a été introduite dans [5] pour la résolution d’un problème à source. Il y est montré théoriquement la convergence de cette variante dans tous les régimes.

L’objectif de la thèse est de contribuer à l’accélération du schéma itératif existant dans le solveur MINOS. Il s’agira de construire une approche de préconditionnement adaptée au solveur MINOS.

[1] M. L. Adams, E. W. Larsen, Fast iterative methods for discrete-ordinates particle transport calculations, Progress in Nuclear Energy, Volume 40, Issue 1, 2002.

[2] A.-M. Baudron and J.-J. Lautard. MINOS: a simplified PN solver for core calculation. Nuclear Science and Engineering, volume 155(2), pp. 250–263 (2007).

[3] A. Calloo, R. Le Tellier, D. Couyras, Anderson acceleration and linear diffusion for accelerating the k-eigenvalue problem for the transport equation, Annals of Nuclear Energy, Volume 180, 2023.

[4] P. Mosca, L. Bourhrara, A. Calloo, A. Gammicchia, F. Goubioud, L. Mao, F. Madiot, F. Malouch, E. Masiello, F. Moreau, S. Santandrea, D. Sciannandrone, I. Zmijarevic, E. Y. Garcia-Cervantes, G. Valocchi, J. F. Vidal, F. Damian, P. Laurent, A. Willien, A. Brighenti, L. Graziano, and B. Vezzoni. APOLLO3®: Overview of the New Code Capabilities for Reactor Physics Analysis. Nuclear Science and Engineering, 2024.

[5] O. Palii, M. Schlottbom, On a convergent DSA preconditioned source iteration for a DGFEM method for radiative transfer, Computers & Mathematics with Applications, Volume 79, Issue 12, 2020.

[6] Y. Saad. Numerical methods for large eigenvalue problems: revised edition. Society for Industrial and Applied Mathematics, 2011.

[7] J. Willert, H. Park, and D. A. Knoll. A comparison of acceleration methods for solving the neutron transport k-eigenvalue problem. Journal of Computational Physics, 2014, vol. 274, p. 681-694.

Etude de la désexcitation radiative du noyau avec une méthode de type Oslo

La capture d’un neutron par un noyau amène à un noyau composé prompt à se désexciter principalement en émettant des gammas si l’énergie d’excitation est inférieure au MeV. Ce processus est appelé capture radiative. Cette réaction, bien connue, dont on sait précisément mesurer la section efficace aux basses énergies pour des noyaux de ou proche de la vallée de stabilité, reste difficilement mesurable pour des noyaux plus exotiques.Les modèles de réactions nucléaires basés essentiellement sur les noyaux stables peinent,eux aussi, à apporter des prédictions fiables de ces sections efficaces sur ces noyaux exotiques. Cependant, ces dernières années,des avancées dans la modélisation et dans les mesures autour de cette réaction a permis d’entrevoir des voies d’améliorations significatives en s’intéressant aux ingrédients plus microscopiques, qui restent accessibles à des mesures plus fines: la fonction de force gamma et la densité de niveaux. En effet, ces ingrédients qui gèrent respectivement la manière dont la cascade gamma se déroule et la structure du noyau à haute énergie d’excitation peuvent être mesurés pour aider ensuite à les calculer plus finement. Ces améliorations ont un impact direct sur la prédiction des sections efficaces pour des noyaux instables que l’on trouve dans la nucléosynthèse stellaire. Le sujet de cette thèse est de mesurer ces ingrédients pour un noyau formé dans la nucléosynthèse en utilisant un nouveau dispositif appelé SFyNCS.

Étude de l’écoulement elliptique des hadrons charmés dans les collisions ions lourds avec LHCb?

Le projet FLOALESCENCE s’inscrit dans le cadre de l’étude expérimentale de la matière de QCD et de la transition de phase entre plasma de quarks et de gluons (QGP) et matière hadronique.?Ce plasma, formé quelques microsecondes après le Big Bang, peut être recréé aujourd’hui dans les collisions plomb-plomb ultra-relativistes au Grand collisionneur de hadrons (LHC).
L’objectif du projet est de comprendre comment les quarks charmés se hadronisent lorsque le QGP se refroidit. Le doctorant travaillera au sein de l’expérience LHCb, un détecteur unique par sa couverture en rapidité avant, permettant d’explorer une région de l’espace des phases encore inexplorée.
Le travail consistera à mesurer pour la première fois à LHCb l’écoulement elliptique (v2) des baryons charmés (?c+) et des mésons (D0), afin de tester les modèles de coalescence et de caractériser le degré de thermalisation des quarks charmés dans le milieu QGP.

Objectifs et missions:
- Extraire et analyser les signaux ?c+ et D0 dans les nouvelles données Pb–Pb enregistrées par LHCb (2024–2025).
- Développer et appliquer une méthode d’analyse innovante de l’écoulement elliptique, fondée sur la reformulation de la méthode des Zéros de Lee–Yang.
- Mettre en place une métrique de multiplicité d’événement pour relier les observables de flux à la densité d’énergie du système.
- Comparer les résultats aux prédictions théoriques et aux mesures des autres expériences du LHC (ALICE, CMS).
Rédiger des publications scientifiques et présenter les résultats lors de conférences internationales.

Le/la doctorant.e acquerra :
- Une maîtrise avancée des outils d’analyse de données du LHCb (ROOT, Python, C++), y compris les techniques de classification par apprentissage automatique.
- Une expertise en physique des hautes énergies et en QCD, notamment sur les propriétés du plasma de quarks et de gluons et les phénomènes collectifs.
- Des compétences en analyse statistique et traitement de grands volumes de données.
- Une solide expérience du travail collaboratif international (au sein de la collaboration LHCb).
- Une formation polyvalente valorisable tant dans la recherche académique que dans les domaines de la data science, de l’ingénierie ou de la modélisation physique.

Développement d'un estimateur hybride CPU-GPU pour le transport neutronique : vers une simulation Monte Carlo plus efficace

Des jumeaux numériques intégrant des modèles de simulation Monte Carlo sont en développement pour la conception, l’exploitation et le démantèlement d’installations nucléaires. Ces jumeaux sont capables de prédire des grandeurs physiques telles que les flux de particules, les échauffements gamma/neutrons ou les débits d’équivalent de dose. Cependant, la méthode Monte Carlo présente un inconvénient majeur : un temps de calcul élevé pour obtenir une variance acceptable. Pour améliorer l’efficacité des simulations, l’estimateur eTLE a été développé et intégré au code Monte Carlo TRIPOLI-4®. Comparé à l’estimateur classique TLE (Track Length Estimator), l’eTLE offre une variance théorique plus faible, notamment dans les milieux fortement absorbants, en apportant des contributions au détecteur sans que la particule ne l’atteigne. Cependant, son coût computationnel reste encore élevé, surtout lorsqu’on souhaite évaluer plusieurs détecteurs.
Dans deux thèses récentes, deux variantes ont été développées pour surmonter cette limite. Le Forced Detection eTLE- (Guadagni, EPJ Plus 2021) utilise un échantillonnage préférentiel qui oriente les pseudo-particules vers le détecteur à chaque collision. Il est particulièrement efficace pour les petits détecteurs et les configurations avec blindages modérés, notamment pour les neutrons rapides. Le Split Exponential TLE (Hutinet & Antonsanti, EPJ Web 2024) repose sur une approche GPU asynchrone, externalisant le transport en ligne droite des particules sur processeur graphique. Grâce à un échantillonnage multiple, il maximise l’usage du GPU et permet une exploration plus efficace de l’espace des phases.
La thèse proposée vise à combiner ces deux approches dans un estimateur hybride nommé seTLE-DF. Ce nouvel estimateur pourra être utilisé soit directement, soit pour générer des cartes d’importance sans recourir à des calculs auxiliaires avec des codes déterministes. Sa mise en œuvre nécessitera des développements spécifiques sur GPU, notamment pour optimiser la bibliothèque géométrique et la gestion mémoire dans des géométries complexes.
Ce sujet s’inscrit dans le cadre de l’informatique verte, visant à réduire l’empreinte carbone du calcul haute-performance. Il repose sur une approche hybride CPU-GPU, évitant le portage complet du code Monte Carlo sur GPU. Des solutions telles que l’utilisation du format demi-précision seront envisagées et une évaluation de l’impact énergétique avant et après implémentation sera réalisée. Le futur docteur sera accueilli au sein de l'Institut IRESNE (CEA Cadarache). Il pourra acquérir des compétences solides en simulation neutronique, facilitant son intégration dans les grands organismes de recherche ou les entreprises du secteur nucléaire.

Sonder l’information quantique avec le quark top au LHC

Ce projet de doctorat vise à explorer la nature quantique de la production de paires de quarks top au LHC, en étudiant les corrélations de spin et les observables liées à l’intrication quantique dans les données enregistrées par l’expérience ATLAS. Les récentes avancées ayant permis d’observer l’intrication dans les événements top–antitop ont ouvert une nouvelle fenêtre sur l'étude de la structure quantique des interactions fondamentales, faisant du LHC une machine capable de sonder l’information quantique à l’échelle du TeV. La thèse se concentrera sur la reconstruction de l’état quantique des paires de quarks top à partir des données du Run 3 d’ATLAS, avec une attention particulière portée à l’extraction des corrélations de spin et des observables sensibles à l’intrication quantique dans des topologies à haute impulsion. En améliorant les stratégies de reconstruction et en évaluant soigneusement les effets du détecteur, l’objectif est de déterminer les propriétés quantiques de la paire de quarks top avec précision et ainsi de contribuer à comprendre ce que l’information quantique peut apporter à notre connaissance des particules élémentaires.

RECHERCHES D’EMISSION DIFFUSES EN RAYONS GAMMA DE TRES HAUTE ENERGIE ET PHYSIQUE FONDAMENTALE AVEC H.E.S.S. ET CTAO

Les observations en rayons gamma de très hautes énergies (THE, E>100 GeV) sont cruciales pour la compréhension des phénomènes non-thermiques les plus violents à l’œuvre dans l’Univers. La région centre de la Voie Lactée est une région complexe et active en rayons gamma de THE. Parmi les sources gamma de THE se trouvent le trou noir supermassif Sagittarius A* au coeur de la Galaxie, des vestiges de supernova ou encore des régions de formation d'étoiles. Le centre Galactique (CG) abrite un un accélérateur de rayons cosmiques jusqu’à des énergies du PeV, des émissions diffuses du GeV au TeV dont le « Galactic Center Excess » (GCE) dont l’origine est encore inconnue, de potentielles sources variables au TeV, ainsi que possibles populations de sources non encore résolues (pulsars millisecondes, trous noirs de masses intermédiaires). Le CG devrait être la source la plus brillante d’annihilations de
particules massives de matière noire de type WIMPs. Des candidats matière noire plus légers, les particules de type axions (ALP), pourraient se convertir en photons, et vice versa, dans les champs magnétiques laissant une empreinte d’oscillation dans les spectres gamma de noyaux actifs de galaxies (AGN).
L'observatoire H.E.S.S. situé en Namibie est composé de cinq télescopes imageurs à effet Cherenkov atmosphérique. Il est conçu pour détecter des rayons gamma de quelques dizaines de GeV à plusieurs dizaines de TeV. La région du Centre Galactique est observée par H.E.S.S. depuis vingt ans. Ces observations ont permis de détecter le premier Pevatron Galactique et de poser les contraintes les plus fortes à ce jour sur la section efficace d'annihilation de particules de matière noire dans la plage en masse du TeV. Le futur observatoire CTA sera déployé sur deux sites, l'un à La Palma et l'autre au Chili. Ce dernier composé de plus de 50 télescopes permettra d'obtenir un balayage sans précédent de la région sur Centre Galactique.
Le travail proposé portera sur l'analyse et l'interprétation des observations H.E.S.S. conduites dans la région du Centre Galactique pour la recherche d'émission diffuses (populations de sources non résolues, matière noire massive) ainsi que des observations menées vers un sélection de noyaux actifs de galaxie pour la recherche d'ALPs constituant la matière noire. Ces nouveaux cadres d'analyses seront implémentés pour les analyses CTA à venir. Une implication dans la commissioning des premiers MSTs au Chili ainsi que dans l’analyse des premières données scientifiques sont attendues.

Impact de la magnétohydrodynamique sur l’accès et la dynamique des régimes d’opération avec point X rayonnant (XPR)

L'opération d'ITER et de futures centrales à fusion devra en particulier garantir la pérennité des composants face au plasma (CFP) équipant le divertor, cet élément périphérique dédié à l'extraction de la chaleur et des particules. Dans ce cadre, deux facteurs clés sont à prendre en compte : les flux de chaleur devront rester en dessous des limites technologiques à la fois en stationnaire et lors d'évènements transitoires violents. Un régime d'opération récemment développé satisfait ces deux contraintes : le point X rayonnant (XPR). Les expériences sur plusieurs tokamaks, notamment sur WEST qui détient le record de durée plasma dans ce régime (> 40 secondes), ont montré qu'il conduisait à une réduction drastique des flux de chaleur sur les CFP en transférant l'essentiel de l'énergie du plasma aux photons et aux particules neutres, et par ailleurs mitigeait – voire supprimait – des instabilités magnétohydrodynamiques (MHD) de bord particulièrement délétères, les ELMs (edge localised modes). Les mécanismes gouvernant ces mitigation et suppression restent très mal compris. En outre, le XPR peut s'avérer lui-même instable et conduire à une disruption, la perte brutale du confinement du plasma suite au déclenchement d'instabilités MHD globales.
L'objectif de cette thèse est double : (i) comprendre la physique à l'œuvre dans l'interaction XPR-ELMs, et (ii) optimiser l'accès et la stabilité du régime XPR. Pour ce faire, l'étudiant.e utilisera le code à 3-dimensions de MHD non-linéaire JOREK, la référence Européenne dans le domaine. Il s'agira notamment de préciser les limites du domaine opérationnel stable du XPR avec des ELMs faibles ou absents, et d'identifier les actuateurs principaux (quantité et espèces d’impuretés injectées, géométrie du plasma). Une participation aux campagnes expérimentales du tokamak WEST opéré au CEA de Cadarache – et de MAST-U opéré par l'UKAEA – est également envisagée pour confronter les résultats et prédictions des simulations aux mesures expérimentales.

Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable

Contexte

L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.

La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.

Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.

Projet de doctorat

Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.

Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.

Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.

Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.

La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.

Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.

Références

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].

Étude du transport des impuretés dans des plasmas à triangularité négative et positive

La fusion nucléaire dans un tokamak est une source d'énergie prometteuse. Cependant, une question se pose : quelle configuration plasma est la plus susceptible de produire de l'énergie nette ? Pour contribuer à y répondre, au cours de cette thèse, nous étudierons l’impact de la géométrie magnétique (comparaison entre triangularité positive et négative) sur le transport collisionnel et turbulent du tungstène (W). Les performances d’un tokamak dépendent fortement du confinement de l’énergie qu’il peut réaliser. Le confinement se dégrade fortement en fonction du transport turbulent et du rayonnement, ce dernier étant principalement émis par le W. Sur ITER, la quantité tolérée de W au cœur du plasma est d’à peine 0,3 microgrammes environ. Des expériences ont montré que la géométrie plasma à triangularité négative (NT) est bénéfique pour le confinement car elle réduit significativement le transport turbulent. Cette géométrie permet d'atteindre un confinement équivalent à celui obtenu avec la configuration ITER (mode-H en triangularité positive), sans les limitations d’une puissance seuil minimale et sans les relaxations du bord du plasma qui lui sont caractéristiques. Cependant, des questions subsistent : quel niveau de transport du W est rencontré en NT comparé à la géométrie positive ? Quel niveau de rayonnement peut-on espérer dans des futurs réacteurs en NT ? Pour contribuer à répondre à ces questions, au cours de cette thèse, nous évaluerons le rôle de la triangularité sur le transport des impuretés dans différents scénarios dans WEST. La première phase du travail est expérimentale. Ensuite, la modélisation du transport d’impuretés sera réalisée en utilisant des modèles collisionnels et turbulents. Une collaboration est prévue avec des experts internationaux en plasma dans des configurations NT, avec UCSD (États-Unis) et EPFL (Suisse).

Contrôle de la turbulence des modes d’électrons piégés à l’aide du chauffage à la résonance cyclotronique électronique

Les performances en terme de gain énergétique d’une centrale à fusion de type tokamak seront limitées par le transport turbulent. L’instabilité des modes d’électrons piégés est l’une des principales instabilités à l’origine de la turbulence dans les tokamaks. Par ailleurs, le chauffage à la résonance cyclotronique électronique ECRH est le système de chauffage générique dans les tokamaks actuels et à venir. Les deux processus physiques reposent sur des interactions résonantes avec les électrons, en espace et en vitesse. Comme le chauffage a pour effet de dépeupler de ses électrons la zone d’interaction résonante, superposer sa résonance à celle de l'instabilité peut théoriquement entrainer une stabilisation des modes d’électrons piégés.
L’objectif de la thèse est double : (i) construire des scenarios où ce mécanisme existe et le valider au moyen de simulations linéaires, puis (ii) caractériser son effet et quantifier son efficacité en régime non-linéaire où les effets linéaires seront en compétition avec l'auto-organisation de la turbulence, les processus collisionnels et la dynamique des profils moyens. Potentiellement, cette technique de contrôle entièrement nouvelle pourrait permettre d’améliorer les performances des tokamaks sans surcoût. La thèse demandera une compréhension théorique fine des deux processus résonnants étudiés et de leurs différents paramètres de contrôle. Elle reposera sur l’utilisation du code gyrocinétique GYSELA dédié à l'étude du transport et de la turbulence dans les plasmas de tokamaks, et récemment enrichi d'un module de chauffage ECRH. Un volet expérimental est également envisagé sur les tokamaks WEST et/ou TCV pour valider le(s) scénario(s) de contrôle de la turbulence le(s) plus prometteur(s).

Top