Prédiction des effets de dispersion d’ondes élastiques par un modèle semi-analytique sous approximation hautes fréquences
Les méthodes d’inspection ultrasonores (UT) sont une composante essentielle des contrôles non-destructifs (CND). Elles sont couramment employées pour l’inspection de composants mécaniques tels que les soudures (nucléaire, pétrochimie) ou les structures en matériau composite (aéronautique). Afin de comprendre les phénomènes physiques en jeu pour une configuration donnée, la simulation est un atout et parfois une étape incontournable pour la mise en place du procédé d’inspection. Les approches de modélisation se répartissent en deux grandes familles : les modèles purement numériques, basés sur les éléments finis (EF), et les méthodes semi-analytiques, dérivées d’approximations haute fréquence (HF) comme les rayons paraxiaux. Ces dernières, bien que privilégiées pour leur efficacité calculatoire, introduisent des simplifications pouvant altérer la précision quantitative des résultats, en particulier pour des phénomènes comme la dispersion (variation de la vitesse des ondes selon la fréquence), fréquents dans certains contextes industriels.
Ce projet de thèse vise à enrichir l’approche par rayons paraxiaux en y intégrant des modèles d’interfaces dispersives (interplis composites, couches de couplant), des milieux viscoélastiques dispersifs, ainsi qu’un modèle d’ondes guidées modales. L’ambition est de concevoir un outil de simulation capable de reproduire fidèlement des configurations de contrôle réalistes, améliorant ainsi la représentativité des résultats.
Modélisation gyrocinétique de l'interaction non linéaire entre les instabilités induites par les particules énergétiques et la microturbulence dans les plasmas de tokamak
Les plasmas de tokamak sont des systèmes fortement non linéaires et hors équilibre thermodynamique, dans lesquels coexistent des instabilités de tailles très différentes, allant des grandes oscillations macroscopiques à la microturbulence. La présence d’ions énergétiques produits par les réactions de fusion ou par le chauffage auxiliaire renforce ces instabilités via des résonances ondes-particules. La microturbulence est responsable du transport de chaleur et de particules du plasma thermique, tandis que les instabilités induites par les particules énergétiques peuvent produire leur transport radial et, donc, leurs pertes. Ces deux phénomènes dégradent les performances des plasmas de tokamaks actuels et potentiellement aussi celles des plasmas en combustion comme dans ITER.
Des résultats récents montrent cependant que ces instabilités, longtemps étudiées séparément, peuvent interagir non-linéairement et conduire in fine à une amélioration inattendue du confinement du plasma.
L’objectif du projet est d’étudier ces interactions multi-échelles à l’aide du code gyrocinétique GTC, capable de simuler simultanément turbulence et instabilités de particules énergétiques. Ce travail vise à mieux comprendre les mécanismes non linéaires gouvernant le confinement et à identifier des régimes optimaux pour les futurs plasmas de fusion.
Impact de la magnétohydrodynamique sur l’accès et la dynamique des régimes d’opération avec point X rayonnant (XPR)
L'opération d'ITER et de futures centrales à fusion devra en particulier garantir la pérennité des composants face au plasma (CFP) équipant le divertor, cet élément périphérique dédié à l'extraction de la chaleur et des particules. Dans ce cadre, deux facteurs clés sont à prendre en compte : les flux de chaleur devront rester en dessous des limites technologiques à la fois en stationnaire et lors d'évènements transitoires violents. Un régime d'opération récemment développé satisfait ces deux contraintes : le point X rayonnant (XPR). Les expériences sur plusieurs tokamaks, notamment sur WEST qui détient le record de durée plasma dans ce régime (> 40 secondes), ont montré qu'il conduisait à une réduction drastique des flux de chaleur sur les CFP en transférant l'essentiel de l'énergie du plasma aux photons et aux particules neutres, et par ailleurs mitigeait – voire supprimait – des instabilités magnétohydrodynamiques (MHD) de bord particulièrement délétères, les ELMs (edge localised modes). Les mécanismes gouvernant ces mitigation et suppression restent très mal compris. En outre, le XPR peut s'avérer lui-même instable et conduire à une disruption, la perte brutale du confinement du plasma suite au déclenchement d'instabilités MHD globales.
L'objectif de cette thèse est double : (i) comprendre la physique à l'œuvre dans l'interaction XPR-ELMs, et (ii) optimiser l'accès et la stabilité du régime XPR. Pour ce faire, l'étudiant.e utilisera le code à 3-dimensions de MHD non-linéaire JOREK, la référence Européenne dans le domaine. Il s'agira notamment de préciser les limites du domaine opérationnel stable du XPR avec des ELMs faibles ou absents, et d'identifier les actuateurs principaux (quantité et espèces d’impuretés injectées, géométrie du plasma). Une participation aux campagnes expérimentales du tokamak WEST opéré au CEA de Cadarache – et de MAST-U opéré par l'UKAEA – est également envisagée pour confronter les résultats et prédictions des simulations aux mesures expérimentales.
Optimisation topologique multi-matériaux robuste sous contrainte de fabricabilité appliquée au design d’aimant supraconducteur pour les IRMs haut champ
Les scanners IRM sont des outils très précieux pour la médecine et la recherche, dont le fonctionnement repose sur l'exploitation des propriétés des noyaux atomiques plongés dans un champ magnétique statique très intense. Celui-ci est généré, dans la quasi-totalité des scanner IRM, par un électroaimant supraconducteur.
La conception des électroaimants pour les IRM doit répondre à des contraintes très exigeantes sur l'homogénéité du champ produit. De plus, à mesure que le champ magnétique devient plus intense, les forces s'exerçant sur l'électroaimant augmentent et font émerger le problème de la tenue mécanique des bobinages. Enfin, la « fabricabilité » de l'électroaimant impose des contraintes sur les formes des solutions acceptables. La conception des électroaimants supraconducteurs pour les IRM demande donc un effort minutieux d'optimisation du design, soumise à des contraintes basée sur une modélisation multiphysique magnéto-mécanique.
Une nouvelle méthodologie innovante d'optimisation topologique multiphysique a été développée, sur la base d'une méthode à densité (SIMP) et d'un code de calcul par éléments finis. Celle-ci a permis de produire des designs d'aimants satisfaisant les contraintes sur l'homogénéité du champ magnétique produit et sur la tenue mécanique des bobinages. Toutefois, les solutions obtenues ne sont pas fabricables en pratique, tant du point de vue de la fabricabilité des bobines (enroulements des câbles) que de son intégration avec une structure portante (maintien des bobines par une structure en acier).
L'objectif de cette thèse est d'enrichir la méthode d'optimisation topologique amorcée en formalisant et en implémentant des contraintes de fabrication liées à manière de bobiner, aux contraintes résiduelles résultant d'une pré-tension des câbles au bobinage, et également à la présence d'un matériau de structure pouvant reprendre les efforts transmis par les bobines.
Développement d'un estimateur hybride CPU-GPU pour le transport neutronique : vers une simulation Monte Carlo plus efficace
Des jumeaux numériques intégrant des modèles de simulation Monte Carlo sont en développement pour la conception, l’exploitation et le démantèlement d’installations nucléaires. Ces jumeaux sont capables de prédire des grandeurs physiques telles que les flux de particules, les échauffements gamma/neutrons ou les débits d’équivalent de dose. Cependant, la méthode Monte Carlo présente un inconvénient majeur : un temps de calcul élevé pour obtenir une variance acceptable. Pour améliorer l’efficacité des simulations, l’estimateur eTLE a été développé et intégré au code Monte Carlo TRIPOLI-4®. Comparé à l’estimateur classique TLE (Track Length Estimator), l’eTLE offre une variance théorique plus faible, notamment dans les milieux fortement absorbants, en apportant des contributions au détecteur sans que la particule ne l’atteigne. Cependant, son coût computationnel reste encore élevé, surtout lorsqu’on souhaite évaluer plusieurs détecteurs.
Dans deux thèses récentes, deux variantes ont été développées pour surmonter cette limite. Le Forced Detection eTLE- (Guadagni, EPJ Plus 2021) utilise un échantillonnage préférentiel qui oriente les pseudo-particules vers le détecteur à chaque collision. Il est particulièrement efficace pour les petits détecteurs et les configurations avec blindages modérés, notamment pour les neutrons rapides. Le Split Exponential TLE (Hutinet & Antonsanti, EPJ Web 2024) repose sur une approche GPU asynchrone, externalisant le transport en ligne droite des particules sur processeur graphique. Grâce à un échantillonnage multiple, il maximise l’usage du GPU et permet une exploration plus efficace de l’espace des phases.
La thèse proposée vise à combiner ces deux approches dans un estimateur hybride nommé seTLE-DF. Ce nouvel estimateur pourra être utilisé soit directement, soit pour générer des cartes d’importance sans recourir à des calculs auxiliaires avec des codes déterministes. Sa mise en œuvre nécessitera des développements spécifiques sur GPU, notamment pour optimiser la bibliothèque géométrique et la gestion mémoire dans des géométries complexes.
Ce sujet s’inscrit dans le cadre de l’informatique verte, visant à réduire l’empreinte carbone du calcul haute-performance. Il repose sur une approche hybride CPU-GPU, évitant le portage complet du code Monte Carlo sur GPU. Des solutions telles que l’utilisation du format demi-précision seront envisagées et une évaluation de l’impact énergétique avant et après implémentation sera réalisée. Le futur docteur sera accueilli au sein de l'Institut IRESNE (CEA Cadarache). Il pourra acquérir des compétences solides en simulation neutronique, facilitant son intégration dans les grands organismes de recherche ou les entreprises du secteur nucléaire.
Modèle de microémulsion : Vers la prédiction des procédés d’extraction liquide-liquide
Cette thèse de modélisation multi-échelle vise à développer des approches théoriques et des outils numériques innovants pour prédire les procédés d’extraction des métaux stratégiques, indispensables à la transition énergétique. Parmi les méthodes existantes, l’extraction liquide-liquide est un procédé clé, mais ses mécanismes sous-jacents restent encore mal compris. Pour répondre à ces enjeux, les phases solvants seront représentées par des microémulsions, grâce à une synergie d’approches de modélisation mésoscopiques et moléculaires.
Le volet mésoscopique reposera sur le développement d’un code basé sur la théorie des microémulsions utilisant une base d’ondelettes aléatoires. Ce code permettra de caractériser les propriétés structurales et thermodynamiques des solutions. L’approche moléculaire s’appuiera sur des simulations de dynamique moléculaire classique pour évaluer les propriétés de courbure des extractants nécessaires au passage entre les deux échelles.
Le nouveau code de calcul performant intégrera potentiellement des techniques d’intelligence artificielle pour accélérer la minimisation de l’énergie libre du système, tout en prenant en compte l’ensemble des espèces chimiques présentes avec un minimum de paramètres. Cela ouvrira la voie à de nouvelles pistes de recherche, notamment à travers la prédiction de la spéciation et le calcul des instabilités thermodynamiques dans les diagrammes de phase ternaires, permettant ainsi d’identifier des conditions expérimentales encore inexplorées.
Cette thèse, menée au Laboratoire de Modélisation Mésoscopique et Chimie Théorique à l’Institut de Chimie Séparative de Marcoule, aura des applications dans le domaine du recyclage, mais également dans le domaine des nanosciences, élargissant ainsi l’impact de ces travaux.
Le/La doctorant(e), de formation initiale en chimie-physique, chimie théorique ou physique, et ayant un fort intérêt pour la programmation, sera encouragé(e) à valoriser ses résultats scientifiques par des publications et des communications lors de conférences nationales et internationales. A l’issue de la thèse, le/la candidat(e) aura acquis un large éventail de compétences en chimie théorique, modélisation, calcul numérique et chimie-physique, lui offrant de nombreuses opportunités professionnelles, tant en recherche académique qu’en R&D industrielle.
Recherche d’axions dans l’expérience SuperDAWA avec aimants supraconducteurs et radiométrie hyperfréquence
Les axions sont des particules hypothétiques qui pourraient à la fois expliquer un problème fondamental de la physique des interactions fortes (la conservation de la symétrie CP en QCD) et constituer une part importante de la matière noire. Leur détection directe représente donc un enjeu majeur en physique fondamentale et en cosmologie.
L’expérience SuperDAWA, en cours de construction au CEA Saclay, repose sur l’utilisation d’aimants supraconducteurs et d’un radiomètre hyperfréquence placé dans un cryostat cryogénique. Ce dispositif permettra de convertir des axions potentiels en ondes radio mesurables, dont la fréquence est directement liée à leur masse.
Le travail de thèse proposé se partagera entre modélisation numérique et participation à l’expérience. L’étudiant·e développera un modèle complet intégrant les champs magnétiques, la propagation du signal radio et la réponse de l’électronique, avec une validation progressive par des mesures réelles. Une fois l’expérience opérationnelle, le·la doctorant·e participera aux campagnes de prises de données et à leur analyse.
Ce projet offrira l’opportunité unique de contribuer à une expérience de pointe en physique expérimentale, avec des retombées directes sur la recherche mondiale de matière noire.
Méga-analyse cosmologique multi-sonde du relevé DESI: inférence bayésienne standard et au niveau du champ
Les grandes structures de l’Univers (LSS) sont sondées par plusieurs observables : distribution des galaxies, lentillage faible des galaxies et du fond diffus cosmologique (CMB). Chacune permet de tester la gravité à grande échelle et l’énergie noire, mais leur analyse jointe assure le meilleur contrôle des paramètres de nuisance et fournit les contraintes cosmologiques les plus précises.
Le relevé spectroscopique DESI cartographie la distribution 3D de galaxies. À la fin de son relevé nominal de 5 ans cette année, il aura observé 40 millions de galaxies et quasars (dix fois plus que les relevés précédents) sur un tiers du ciel, jusqu’à un décalage spectral de z = 4.2. En combinant ses données avec celles du CMB et des supernovae, la collaboration a mis en évidence une éventuelle déviation de l’énergie noire par rapport à la constante cosmologique.
Pour tirer pleinement parti de ces données, DESI a lancé une "méga-analyse" combinant galaxies, lentillage de galaxies (Euclid, UNIONS, DES, HSC, KIDS) et du CMB (Planck, ACT, SPT), visant à produire les contraintes les plus précises jamais obtenues sur l’énergie noire et la gravité. L’étudiant jouera un rôle clé dans le développement et la mise en oeuvre de cette chaîne d’analyse multi-sonde.
L’analyse standard compresse les observations en spectre de puissance pour l’inférence cosmologique, mais cette approche reste sous-optimale. L’étudiant développera une alternative, dite analyse au niveau du champ, qui consiste à ajuster directement le champ de densité et de lentillage observé, simulé à partir des conditions initiales de l’Univers. Ceci constitue un problème d’inférence bayésienne en très haute dimension, qui sera traité à l’aide d’échantillonneurs récents basés sur le gradient et de bibliothèques GPU avec différentiation automatique. Cette méthode de pointe sera validée en parallèle avec l’approche standard, ouvrant la voie à une exploitation maximale des données DESI.
Modélisation multiphysique du frittage du combustible nucléaire : effet de l’atmosphère sur la cinétique du retrait
Les combustibles de dioxyde d’uranium (UO2), utilisés dans les centrales nucléaires sont des céramiques, dont le frittage en phase solide est une étape-clé de la fabrication. L’étape de frittage consiste en un traitement thermique sous pression partielle contrôlée de O2 permettant de consolider, densifier le matériau et faire grossir les grains de UO2. Le grossissement des grains induit la densification du matériau (fermeture des pores) et le retrait macroscopique de la pastille. Si le compact (poudre comprimée par pressage avant le frittage) admet de fortes hétérogénéités de densité, une différence de densification dans la pastille peut avoir lieu entraînant un retrait différentiel et l’apparition de défauts. De plus, l'atmosphère de frittage, c'est-à-dire la composition du gaz dans le four, impacte la cinétique de grossissement des grains et donc le retrait de la pastille. Ainsi, une simulation avancée permettrait d'améliorer la compréhension des mécanismes observés ainsi que d'optimiser les cycles de fabrication.
Cette thèse se consacre à la mise en place d’un modèle thermique-chimique-mécanique du frittage pour simuler l’impact de la composition et les propriétés physiques de l’atmosphère sur la densification du combustible à l’échelle de la pastille. Cette échelle nous permettra de considérer les gradients de densité issus du pressage, mais également de prendre en compte la cinétique de diffusion d’oxygène impactant localement la vitesse de densification qui elle-même impactera le processus de transport. Une simulation multiphysique est nécessaire pour simuler le couplage de ces phénomènes.
Ce travail de thèse sera mené au sein du Laboratoire commun MISTRAL (Aix-Marseille Université/CNRS/Centrale Marseille et l'institut IRESNE du CEA-Cadarache). Le doctorant valorisera ses résultats au travers de publications et participations à des congrès et aura acquis de solides compétences qui sont recherchées et valorisables dans un grand nombre de domaines académiques et industriels.
Simulation numérique de modèles de turbulence sur des maillages déformés
La turbulence joue un rôle important dans de nombreuses applications industrielles (écoulement, transfert de chaleur, réactions chimiques). Comme la simulation directe (DNS) est souvent d’un coût excessif en temps calcul, les modèles en moyenne de Reynolds (RANS) sont alors utilisés dans les codes de CFD (computational fluid dynamics). Le plus connu, qui a été publié dans les années 70, est le modèle k – e. Il se traduit par deux équations additionnelles non-linéaires couplées aux équations de Navier-Stokes, décrivant le transport, pour l’une, de l’énergie cinétique turbulente (k) et, pour l’autre, de son taux de dissipation (e). Une propriété très importante à vérifier est la positivité des paramètres k et e qui est nécessaire pour que le système d’équations modélisant la turbulence reste stable. Il est donc crucial que la discrétisation de ces modèles préserve la monotonie. Les équations étant de type convection-diffusion, il est bien connu qu’avec des schémas classiques linéaires (Eléments finis, Volumes finis etc…), les solutions numériques sont susceptibles d’osciller sur des mailles déformées. Les valeurs négatives des paramètres k et e sont alors à l’origine de l’arrêt de la simulation. Il s’avère donc nécessaire de rendre monotone les schémas linéaires classiques de la littérature de manière consistante et stable.
Nous nous intéressons aux méthodes non linéaires permettant d’obtenir des stencils compacts. Pour des opérateurs de diffusion, elles reposent sur des combinaisons non linéaires de flux de part et d’autre de chaque arête. Ces approches ont montré leur efficacité, particulièrement pour la suppression d’oscillations sur des maillages très déformés. On pourra également reprendre les idées proposées dans la littérature, où il est par exemple décrit des corrections non linéaires s’appliquant sur des schémas linéaires classiques.
L’idée serait donc d’appliquer ce type de méthode sur les opérateurs diffusifs apparaissant dans les modèles k-e. Dans ce contexte, il sera également intéressant de transformer des schémas classiques de la littérature approchant les gradients en schémas non linéaires à deux points. Des questions fondamentales doivent être examinées dans le cas de maillages généraux à propos de la consistance et de la coercivité des schémas étudiés.
Au cours de la thèse, on prendra le temps de régler les problèmes de fond de ces méthodes (première et seconde année), à la fois sur les aspects théoriques et sur la mise en œuvre informatique. Cette dernière pourra être effectuée dans les environnements de développement Castem, Trust/TrioCFD ou POLYMAC. On s’intéressera alors à des solutions analytiques régulières et aux cas d’application représentatifs de la communauté.