Modélisation du flux critique à l’aide des méthodes de Boltzmann sur réseau : application aux dispositifs expérimentaux du RJH

Les méthodes LBM (Lattice Boltzmann Methods) sont des techniques numériques utilisées pour simuler des phénomènes de transport dans des systèmes complexes. Elles permettent de modéliser le comportement des fluides en termes de particules qui se déplacent sur une grille discrète (un "réseau" ou lattice). Contrairement aux méthodes classiques, qui résolvent directement les équations différentielles des fluides, les méthodes LBM simulent l'évolution des fonctions de distribution des particules de fluide dans un espace discret, en utilisant des règles de propagation et de collision.
Le choix du réseau dans les méthodes LBM est une étape cruciale, car il affecte directement la précision, l'efficacité et la stabilité des simulations. Le réseau détermine la manière dont les particules de fluide interagiront et se déplaceront dans l'espace, ainsi que la façon dont la discrétisation de l'espace et du temps est effectuée.

Les méthodes LBM présentent un parallélisme naturel, car les calculs à chaque point de la grille sont relativement indépendants. Bien que les méthodes classiques de CFD, basées sur la résolution des équations de Navier-Stokes, puissent aussi être parallélisées, les termes non linéaires peuvent rendre le parallélisme plus difficile à gérer, en particulier pour les modèles impliquant des écoulements turbulents ou des maillages irréguliers. Les méthodes LBM permettent donc, à moindre coût, de capturer des phénomènes complexes. Des travaux récents ont notamment montré qu'il était possible, avec les LBM, de retrouver la courbe de refroidissement de Nukiyama (ébullition en vase) et, ainsi, de calculer avec précision le flux critique. Ce flux correspond à une ébullition en masse, appelée crise d’ébullition, qui se traduit par une dégradation soudaine du transfert thermique.

Le flux critique représente un enjeu crucial pour le Réacteur Jules Horowitz, car les dispositifs expérimentaux (DEX) sont refroidis par de l'eau en convection naturelle ou forcée. Ainsi, afin de garantir le bon refroidissement des DEX et la sûreté du réacteur, il convient de s'assurer que, sur la gamme de paramètres étudiés, le flux critique ne soit pas atteint. Il doit donc être déterminé avec précision.

L'étudiant sera amené, dans un premier temps, à définir un réseau pour appliquer les méthodes LBM sur un dispositif du RJH en convection naturelle. Il consolidera les résultats obtenus en les comparant aux données disponibles. Enfin, des calculs exploratoires en convection forcée (régime laminaire à turbulent) seront menés.

Implémentation d’algorithmes parallèles sur GPU pour les simulations du combustible nucléaire sur supercalculateurs exaflopiques

Dans un contexte où le calcul haute performance (HPC) est en perpétuelle évolution, le design des nouveaux supercalculateurs tend à intégrer toujours plus d’accélérateurs ou de cartes graphiques (GPUs), qui fournissent l’essentiel de la puissance de calcul de la plupart des supercalculateurs actuels. En raison de leurs différences architecturales par rapport aux unités centrales de calcul (CPUs) et des environnements logiciels en constante évolution, les GPUs posent de profonds défis de programmation. Une utilisation efficace de leur puissance de calcul demande une refonte des algorithmes et logiciels de simulation existants pour atteindre un parallélisme massif.

Le CEA a développé la plateforme de calcul PLEIADES dédiée à la simulation du comportement des combustibles, depuis la fabrication jusqu’au comportement en réacteur, puis lors du stockage. Elle inclut une parallélisation en mémoire distribuée MPI permettant une parallélisation sur plusieurs centaines de cœurs. Cette plateforme répond aux exigences des partenaires du CEA que sont EDF et Framatome, mais il est nécessaire de l’adapter pour les nouvelles infrastructures de calcul. Proposer une solution flexible, portable et performante pour les simulations sur des supercalculateurs équipés de GPUs est d'un intérêt majeur afin de capturer des physiques toujours plus complexes sur des simulations comportant des domaines de calcul toujours plus grands.

Dans ce cadre, la thèse visera d’élaborer puis évaluer différentes stratégies de portage de noyaux de calculs sur GPU ainsi que l’utilisation de méthodes de répartition dynamique de la charge adaptés aux supercalculateurs GPUs actuels et futurs. Le candidat s’appuiera sur des outils développés au CEA comme les solveurs thermo-mécaniques MFEM-MGIS [1,2] ou MANTA [3]. Les solutions logicielles et algorithmes parallèles proposés avec cette thèse permettront à terme la réalisation de grands calculs de modélisation multi-physique en 3D du comportement des crayons combustibles sur des supercalculateurs comportant des milliers de cœurs de calcul et des GPUs.

Le candidat travaillera au sein du Laboratoire de développement des Outils de Calcul Scientifique (OCS) combustibles PLEIADES (LDOP) au département d'études des combustibles (DEC - Institut IRESNE, CEA Cadarache). Il sera amené à évoluer dans une équipe pluridisciplinaire composée de mathématiciens, physiciens, mécaniciens et informaticiens. A terme, les contributions de la thèse visent à enrichir la plate-forme numérique pour la simulation de combustibles nucléaires PLEIADES.

Références : [1] MFEM-MGIS - https://thelfer.github.io/mfem-mgis/; [2] Th. Helfer, G. Latu. « MFEM-MGIS-MFRONT, a HPC mini-application targeting nonlinear thermo-mechanical simulations of nuclear fuels at mesoscale ». IAEA Technical Meeting on the Development and Application of Open-Source Modelling and Simulation Tools for Nuclear Reactors, June 2022, https://conferences.iaea.org/event/247/contributions/20551/attachments/10969/16119/Abstract_Latu.docx, https://conferences.iaea.org/event/247/contributions/20551/attachments/10969/19938/Latu_G_ONCORE.pdf; [3] O. Jamond et al. «MANTA : un code HPC généraliste pour la simulation de problèmes complexes en mécanique », https://hal.science/hal-03688160

Conception et Optimisation d'un Procédé Innovant pour la Capture du CO2

Dans une enquête réalisée en 2023 par la BEI, deux tiers des jeunes français ont affirmé que l’impact climatique des émissions de leur potentiel futur employeur est un facteur important au moment de choisir un emploi. Mais pourquoi s’arrêter là quand vous pouvez choisir de travailler activement pour la réduction de ces émissions, tout dans le cadre d’un sujet de recherche riche et passionnant ? Au Laboratoire de Simulation de Procédés et analyse de Systèmes, nous proposons une thèse qui vise à concevoir et ensuite à optimiser un procédé pour la capture du CO2 dans les rejets gazeux des industries. Son principe de fonctionnement dérive du procédé « Benfield » pour la capture du CO2. Nous proposons des conditions opératoires optimisées pour lesquels le procédé Benfield serait plus performant. Le deuxième axe d’innovation consiste dans une étude de couplage thermique avec une installation industrielle disposant de la chaleur à céder.

La recherche sera menée en collaboration avec le CEA de Saclay et le Laboratoire de Génie Chimique (LGC) à Toulouse. Dans un premier temps, le thésard va réaliser des travaux de simulation numérique à l’aide d’un logiciel de simulation de procédé (ProSIM). Ensuite, il pourra explorer et proposer différentes solutions pour minimiser le besoin énergétique du procédé. Les schémas de procédé obtenus pourront être validés expérimentalement au LGC, où le thésard sera encadré par des experts en procédé de transfert liquide-gaz. Il sera responsable de mettre en place un montage expérimental à l’échelle pilote pour acquérir des données sur les étapes d’absorption et désorption en colonne, avec un garnissage de structure innovante conçu par la fabrication additive. Il conduira lui-même les manips et pourrait éventuellement encadrer un stagiaire pour le support aux acquisitions expérimentales.

Si vous êtes passionné du Génie de Procédés et que vous cherchez un sujet de thèse stimulant et de grand impact pour la société, postulez et intégrez nos équipes !

Analyse sismique de l’interface sol-fondation : Modélisation physique et numérique du basculement global et du décollement local

Les fondations basculantes offrent un mécanisme potentiel pour améliorer la performance sismique en permettant un soulèvement et un tassement contrôlés, mais les incertitudes dans les interactions sol-fondation limitent leur utilisation généralisée. Les modèles actuels nécessitent des simulations numériques complexes, qui ne représentent pas de manière précise l'interface sol-fondation.
L'objectif principal de cette thèse est de modéliser la transition des effets locaux (friction, soulèvement) à la réponse globale de la structure (basculement, tassement et glissement) sous des charges sismiques, en utilisant une approche expérimentale et numérique combinée. Il s'agit donc d'assurer une modélisation numérique fiable des structures basculantes. Les objectifs clés incluent :
• Étudier la sensibilité des paramètres physiques dans la réponse sismique des systèmes sol-structure basculants en utilisant l'apprentissage automatique et des analyses numériques.
• Développer et réaliser des tests expérimentaux sous charges monotones puis dynamiques pour mesurer les réponses sol-fondation-structure en condition de basculement.
• Implémenter des simulations numériques pour tenir compte des effets d'interaction locaux et valider les résultats avec des résultats expérimentaux.
Enfin, cette recherche vise à proposer un cadre expérimental et numérique fiable pour améliorer la résilience sismique dans la conception en ingénierie. Cette thèse fournira à l'étudiant des compétences pratiques en ingénierie, ainsi qu'une expertise dans les tests en laboratoire et la modélisation numérique. Les résultats seront publiés dans des revues internationales et nationales et présentés lors de conférences, faisant avancer la recherche dans le domaine de la dynamique des sols et des structures.

Validation d'une approche d'identification sans modèle "data-driven" pour la modélisation de la rupture ductile

Ces travaux s'intéressent au passage des modèles constitutifs traditionnels vers un cadre de Mécanique Computationnelle Basée sur des Données (Data-Driven Computational Mechanics, DDCM), discipline introduite il y a peu [1]. Au lieu de s'appuyer sur des équations constitutives complexes, cette approche utilise une base de données d'états contrainte-déformation pour modéliser le comportement des matériaux. L'algorithme minimise la distance entre les états mécaniques calculés et les entrées de la base de données, garantissant le respect des équilibres et des conditions de compatibilité. Ce nouveau paradigme vise à surmonter les incertitudes et les défis empiriques associés aux méthodes conventionnelles.

Outil corollaire de la DDCM, l'Identification Basée sur des Données (Data-Driven Identification, DDI) a émergé comme une méthode puissante pour identifier les réponses en contrainte des matériaux [2, 3]. Elle fonctionne avec peu d'hypothèses et sans modèles constitutifs, ce qui la rend particulièrement adaptée à un potentiel étalonnage de modèles complexes couramment utilisés dans l'industrie.

Les objectifs clés de cette recherche incluent l'adaptation des stratégies de la DDCM vers la DDI pour la plasticité [4] et la rupture [5] en perfectionnant l'existant, l'amélioration de la DDI pour le calcul haute performance, et l'évaluation des équations constitutives à partir d'une base de données uniquement basée sur la donnée expérimentale. La méthodologie proposée consiste à collecter des cartes de mesures de champ à partir d'un essai hétérogène, en utilisant une caméra à haute vitesse et la corrélation d'image numérique. Elle adaptera la DDCM aux scénarios de fracture ductile pour la DDI, mettra en œuvre un solveur DDI dans un cadre de calcul haute performance et réalisera une évaluation d'un modèle constitutif. L'accent sera mis sur l'acier 316L, un matériau largement utilisé dans l'industrie nucléaire.

Cette thèse représente une collaboration des laboratoires CEA et Centrale Nantes qui sont spécialisés en mécanique computationnelle, mathématiques appliquées, l'ingénierie logicielle et traitement de signal.

[1] Kirchdoerfer, Trenton, and Michael Ortiz. "Data-driven computational mechanics." Computer Methods in Applied Mechanics and Engineering 304 (2016): 81-101.
[2] Leygue, Adrien, et al. "Data-based derivation of material response." Computer Methods in Applied Mechanics and Engineering 331 (2018): 184-196.
[3] Dalémat, Marie, et al. "Measuring stress field without constitutive equation." Mechanics of Materials 136 (2019): 103087.
[4] Pham D. et al, Tangent space Data Driven framework for elasto-plastic material behaviors, Finite Elements in Analysis and Design, Volume 216, 2023, https://doi.org/10.1016/j.finel.2022.103895.
[5] P. Carrara, L. De Lorenzis, L. Stainier, M. Ortiz, Data-driven fracture mechanics, Computer Methods in Applied Mechanics and Engineering, Volume 372, 2020, https://doi.org/10.1016/j.cma.2020.113390.

Exploration des instabilités à haute fréquence induites par les électrons rapides en vue d'une application sur WEST

Dans les tokamaks actuels, la distribution des électrons est fortement influencée par les systèmes de chauffage externes, tels que le chauffage par résonance cyclotron électronique (ECRH) ou le chauffage Lower Hybrid (LH), qui génèrent une importante population d’électrons rapides. Cela est également attendu dans les tokamaks de nouvelle génération, comme ITER, où une part substantielle de la puissance est déposée sur les électrons. Une population significative d’électrons rapides peut déstabiliser des instabilités, y compris les modes d’Alfvén (AE). Cependant, ce phénomène reste peu étudié, en particulier en ce qui concerne la population d’électrons déclenchant ces instabilités et l'impact des AE déstabilisés par les électrons sur la dynamique multi-échelle de la turbulence dans l'environnement complexe du plasma.
Ce PhD vise à explorer la physique des AE déstabilisés par les électrons dans des conditions de plasma réalistes, en appliquant ces connaissances aux expériences WEST pour une caractérisation approfondie de ces instabilités. Le candidat utilisera des codes numériques avancés, développés à l'IRFM, pour analyser les conditions de plasma réalistes avec AE déstabilisés par les électrons rapides, afin de saisir la physique essentielle en jeu. Un développement de code sera également nécessaire pour modéliser les aspects clés de cette physique. Une fois ces connaissances acquises, une modélisation prédictive pour l’environnement WEST orientera des expériences visant à observer ces instabilités.
Basé au CEA Cadarache, l’étudiant collaborera avec différentes équipes, du groupe de théorie et de modélisation à l’équipe expérimentale de WEST, et acquerra une expertise variée dans un environnement stimulant. Des collaborations avec les groupes de travail de l’EUROfusion offriront également une expérience internationale enrichissante.

Caractérisation élémentaire par activation neutronique pour l’économie circulaire

Dans le cadre de l’économie circulaire, un objectif majeur est de faciliter le recyclage des matières stratégiques nécessaires à l’industrie. Cela demande en priorité d’être capable de les localiser avec précision dans des composants industriels sans usage. La mesure nucléaire non destructive répond à cette objectif en se fondant sur l’analyse des gamma prompts d’activation neutronique (PGNAA). Cette approche consiste à interroger les échantillons à analyser avec un générateur électrique émettant des impulsions de neutrons rapides qui se thermalisent dans une enceinte en polyéthylène et graphite : on mesure entre les impulsion les rayonnements gamma de capture radiative. L’intérêt d’une telle approche tient dans le fait que des éléments de grande valeur comme le dysprosium ou le néodyme ont une section efficace de capture radiative par les neutrons thermiques élevée et que ces derniers peuvent sonder en profondeur d’importants volumes de matière (plusieurs litres).
Une précédente thèse a permis de démontrer la faisabilité de cette technique et a ouvert des pistes de recherche prometteuses, avec deux volets complémentaires pour progresser concrètement vers les objectifs pratiques de recyclage. Le premier prévoit d’étudier expérimentalement et par simulation la performance de la mesure des cascades gamma sur ces cas représentatifs des besoins industriels (taille et composition des objets, vitesse de mesure). Le second permettra d’enrichir et d’améliorer l'exploitation de la grande quantité d'information disponible à la suite des mesures de rayonnements gamma émis en cascade.
En pratique, le travail sera effectué dans le cadre d’une collaboration entre le CEA et l’institut FZJ (ForschungsZentrum Jülich), en Allemagne. Le premier volet de la thèse sera conduit au CEA au Laboratoire de Mesures Nucléaires. La seconde moitié de la thèse sera effectuée au FZJ (Jülich Centre for Neutron Science, JCNS). Ce volet allemand de la thèse fera l’objet d’expérimentations avec le dispositif FaNGaS du Heinz-Maier-Leibnitz Zentrum (MLZ) à Garching.

Développement d'une approche macroscopique pour la dégradation à long terme des structures en béton sous irradiation

Dans les centrales nucléaires, la protection biologique en béton (CBS) est conçue à proximité de la cuve du réacteur. Cet élément, qui joue également le rôle de structure porteuse, absorbe donc les radiations. Il est ainsi exposé pendant la durée de fonctionnement de la centrale à des niveaux élevés de radiations qui peuvent avoir des conséquences à long terme. Ces radiations peuvent notamment entraîner une diminution des propriétés mécaniques des matériaux et de la structure. Etant donné son rôle clé, il est donc nécessaire de développer des outils et des modèles, pour prédire les comportements de telles structures à l'échelle macroscopique.
Sur la base des résultats existants obtenus à une échelle inférieure - simulations mésoscopiques, à partir desquelles une meilleure compréhension de l'effet de l'irradiation peut être obtenue, et des résultats expérimentaux qui viendront alimentés la simulation (propriétés des matériaux en particulier), il est proposé de développer une méthodologie macroscopique pour le comportement de la protection biologique en béton. Cette approche inclura différents phénomènes, parmi lesquels l'expansion volumétrique induite par le rayonnement, le fluage induit, les déformations thermiques et le chargement mécanique.
Les outils seront développés dans le cadre de la mécanique de l'endommagement. Les principaux défis numériques concernent la proposition et l'implémentation de lois d'évolution adaptées, et en particulier le couplage entre l'endommagement microstructural et l'endommagement au niveau structurel dû aux contraintes appliquées sur la structure.
Ce travail numérique pourra être réalisé dans un contexte de collaboration internationale. Il permettra au candidat retenu de développer un ensemble de compétences autour de la simulation de structures en béton armé en environnement complexe.

Imagerie ultrasonore 3D par adressage orthogonal du réseau de sonde matricielle pour le CND par ultrasons

Le travail de thèse s’inscrit dans le cadre des activités du Département Instrumentation Numérique (DIN) dans le domaine du Contrôle Non-Destructif (CND), et vise à concevoir une nouvelle méthode d’imagerie ultrasonore 3D rapide à l’aide de sondes multi-éléments matricielles. L’ambition sera de produire des images échographiques en trois dimensions du volume interne d’une structure pouvant contenir des défauts (ex. : fissures), de la manière la plus réaliste possible et avec des performances accrues en terme de rapidité de l’acquisition et de formation de l’image. La méthode proposée s’appuiera sur une approche développée en imagerie médicale basée sur l’adressage du réseau de sonde matricielle par lignes et colonnes, ou Row and Column Addressing (RCA). Un premier volet de la thèse consistera à développer de nouvelles stratégies d’acquisition des données pour des sondes matricielles et d’algorithmes de formation de l’image associés afin de traiter des configurations d’inspection usuelles en CND. Dans un deuxième volet, les méthodes développées seront validées sur les données simulées et évaluées sur des données expérimentales acquises avec une sonde matricielle conventionnelle de 16x16 éléments fonctionnant en mode RCA. Enfin, à l’issue de thèse, une preuve de concept temps-réel sera démontrée en implémentant les nouvelles méthodes d’imagerie 3D dans un système d’acquisition de laboratoire.

Dévelopement d'algorithmes de trajectographie basés sur l'apprentissage machine pour le futur Upstream Tracker de LHCb au LHC

Cette proposition vise à développer et améliorer les futures performances de trajectographie de l'expérience LHCb au Grand collisionneur de hadrons (LHC) via l’étude de divers algorithmes basés sur l'apprentissage machine automatique. Parmi les systèmes de trajectographie de LHCb, le sous-détecteur Upstream Tracker (UT) joue un rôle crucial dans la réduction du taux de fausses traces reconstruites dès les premières étapes du processus de reconstruction. Dans l'optique de pouvoir mener à bien les futures études de désintégrations rares de particules, la violation CP dans le Modèle standard, et l'étude du plasma de Quark et Gluon dans les collisions Pb-Pb, une trajectographie précise dans LHCb est obligatoire.

Avec les mises à jour du détecteur prévues d'ici 2035 et l'augmentation anticipée des taux de données, les méthodes de trajectographie traditionnelles risquent de ne pas répondre aux exigences computationnelles, notamment dans les collisions noyau-noyau où des milliers de particules sont produites. Durant la thèse, nous explorerons une gamme de techniques basées sur l'apprentissage machine automatique, comme celles déjà appliquées avec succès dans le Vertex Locator (VELO) de LHCb, pour améliorer la performance de trajectographie de l'UT. En appliquant des méthodes variées, nous visons à améliorer la reconstruction des trajectoires aux premiers stades de la reconstruction, accroître l'efficacité de trajectographie et réduire le taux de fausses traces. Parmi ces techniques, les réseaux de neurones graphiques (Graph Neural Networks, GNN) représentent une option particulièrement prometteuse grâce à l'exploitation des corrélations spatiales et temporelles des hits du détecteur.

Cette exploration de nouvelles méthodes impliquera des développements adaptés au matériel hardware, qu’il s’agisse de GPU, CPU ou FPGA, tous potentiellement présent dans l'architecture de reconstruction du futur LHCb. Nous comparerons les différents algorithmes par rapport aux méthodes de trajectographie actuelles afin de quantifier les améliorations en termes de performance, de scalabilité et d'efficacité computationnelle. De plus, nous prévoyons d’intégrer les algorithmes les plus performants au sein du logiciel de LHCb de de garantir leur compatibilité avec les pipelines de données existants.

Top