Simulation numérique de modèles de turbulence sur des maillages déformés

La turbulence joue un rôle important dans de nombreuses applications industrielles (écoulement, transfert de chaleur, réactions chimiques). Comme la simulation directe (DNS) est souvent d’un coût excessif en temps calcul, les modèles en moyenne de Reynolds (RANS) sont alors utilisés dans les codes de CFD (computational fluid dynamics). Le plus connu, qui a été publié dans les années 70, est le modèle k – e. Il se traduit par deux équations additionnelles non-linéaires couplées aux équations de Navier-Stokes, décrivant le transport, pour l’une, de l’énergie cinétique turbulente (k) et, pour l’autre, de son taux de dissipation (e). Une propriété très importante à vérifier est la positivité des paramètres k et e qui est nécessaire pour que le système d’équations modélisant la turbulence reste stable. Il est donc crucial que la discrétisation de ces modèles préserve la monotonie. Les équations étant de type convection-diffusion, il est bien connu qu’avec des schémas classiques linéaires (Eléments finis, Volumes finis etc…), les solutions numériques sont susceptibles d’osciller sur des mailles déformées. Les valeurs négatives des paramètres k et e sont alors à l’origine de l’arrêt de la simulation. Il s’avère donc nécessaire de rendre monotone les schémas linéaires classiques de la littérature de manière consistante et stable.
Nous nous intéressons aux méthodes non linéaires permettant d’obtenir des stencils compacts. Pour des opérateurs de diffusion, elles reposent sur des combinaisons non linéaires de flux de part et d’autre de chaque arête. Ces approchent ont montré leur efficacité, particulièrement pour la suppression d’oscillations sur des maillages très déformés. On pourra également reprendre les idées proposées dans la littérature, où il est par exemple décrit des corrections non linéaires s’appliquant sur des schémas linéaires classiques.
L’idée serait donc d’appliquer ce type de méthode sur les opérateurs diffusifs apparaissant dans les modèles k-e. Dans ce contexte, il sera également intéressant de transformer des schémas classiques de la littérature approchant les gradients en schémas non linéaires à deux points. Des questions fondamentales doivent être examinées dans le cas de maillages généraux à propos de la consistance et de la coercivité des schémas étudiés.
Au cours de la thèse, on prendra le temps de régler les problèmes de fond de ces méthodes (première et seconde année), à la fois sur les aspects théoriques et sur la mise en œuvre informatique. Cette dernière pourra être effectuée dans les environnements de développement Castem, TrioCFD, Trust ou POLYMAC. On s’intéressera alors à des solutions analytiques régulières et aux cas d’application représentatifs de la communauté.

Nouveau modèle de condensation en écoulement stratifié à l'échelle CFD et macroscopique par remontée d'échelle diphasique

Dans le cadre de la sûreté des Réacteurs à Eau Pressurisée (REP), l’Accident de Perte de Réfrigérant Primaire (APRP) est d’une grande importance. L’APRP est un accident hypothétique provoqué par une brèche dans l’enveloppe du circuit primaire. Cette brèche entraîne une chute de la pression dans le circuit primaire et une perte de l’inventaire en eau de ce circuit, dont résulte un échauffement des crayons combustibles qui doit rester limité afin que l’endommagement du combustible ne mette pas en cause le refroidissement du cœur du réacteur et évite sa fusion.

Pour palier cette situation, l’injection de sécurité est activée afin d’injecter de l’eau froide, sous forme d’un jet, dans la branche froide horizontale qui est totalement ou partiellement dénoyée avec la présence de vapeur pressurisée. Un écoulement stratifié apparaît dans la branche froide avec des phénomènes de condensation important au voisinage du jet et au niveau de la surface libre dans les zones d’écoulement stratifié. De nombreux travaux expérimentaux et numériques ont été menés sur les transferts interfaciaux à la surface libre sur des sections rectangulaires et cylindriques. Les simulations CFD (Computational Fluid Dynamics) de la condensation à la surface libre sont réalisées avec le code Neptune_CFD, code utilisé par FRAMATOME, EDF et le CEA. Actuellement, Neptune_CFD, dispose de trois modèles de transfert de chaleur à la surface libre. Ces modèles ont été établis à partir d’un nombre réduit de simulations (DNS, LES et RANS) sur des configurations rectangulaires qui restent éloignées de la configuration d’intérêt. Les écoulements dans une section rectangulaire sont plutôt des écoulements parallèles alors que dans une section cylindrique, les écoulements sont tridimensionnels.

L’objectif de la thèse est d’améliorer la modélisation de la condensation à la surface libre dans une configuration à section circulaire. Dans un premier temps, une étude bibliographique sera menée sur les régimes d’écoulement de surface libre ainsi que sur des travaux expérimentaux de caractérisation de l’aire interfaciale, de la vitesse moyenne interfaciale, des termes de turbulence au voisinage de la surface libre et des transferts de chaleur. En parallèle, un nouveau modèle sera développé par rapport aux différents éléments d’amélioration identifiés avec la mise en œuvre de la validation associée. Il est aussi envisagé de mener des travaux de remontée d’échelle des simulations CFD diphasiques vers une approche macroscopique CATHARE. Cette méthode de remontée d’échelle se basera sur les travaux de thèse de Tanguy Herry.

Calcul de structure électronique avec des modèles d'apprentissage profond

Les simulations ab initio avec la théorie fonctionnelle de la densité (DFT) sont maintenant couramment utilisées dans toutes les disciplines scientifiques pour démêler les caractéristiques électroniques complexes et les propriétés des matériaux au niveau atomique. Au cours de la dernière décennie, l’apprentissage profond a révolutionné de nombreux domaines tels que la vision par ordinateur, le traitement du langage naturel, les diagnostics de soins de santé et les systèmes autonomes. La combinaison de ces deux domaines présente une avenue prometteuse pour améliorer la précision et l’efficacité des prédictions des propriétés des matériaux complexes, comblant l’écart entre la compréhension au niveau quantique et les connaissances axées sur les données pour accélérer la découverte scientifique et l’innovation. De nombreux efforts ont été consacrés à la construction de potentiels interatomiques d’apprentissage profond qui apprennent la surface d’énergie potentielle (PES) à partir de simulations DFT et peuvent être utilisés dans des simulations de dynamique moléculaire à grande échelle (MD). Généraliser de telles approches d’apprentissage profond pour prédire la structure électronique plutôt que seulement l’énergie, les forces et le tenseur de stress d’un système est une idée attrayante car elle ouvrirait de nouvelles frontières dans la recherche sur les matériaux, permettant la simulation de l’électronles propriétés physiques connexes dans les grands systèmes qui sont importants pour les applications microélectroniques. L’objectif de cette thèse est de développer de nouvelles méthodologies s’appuyant sur des réseaux de neurones équivariants pour prédire la DFT hamiltonienne (c.-à-d. la propriété la plus fondamentale) de matériaux complexes (y compris des troubles, des défauts, des interfaces, etc.) ou d’hétérostructures.

Etude du remplissage des motifs pour l'intégration de la nanoimpression au sein d'un procédé complexe

Le CEA-Leti (Laboratoire d’Electronique et des Technologie de l’Information) est depuis 1960 moteur de l’innovation française dans les nouvelles technologies. Ses diverses entités sont des liens entre la recherche fondamentale et l’industrie. L’une d’entre-elles, le DPFT (Département Plateforme Technologique) concentre dans un environnement pré-industriel les moyens de réalisations et de mesures permettant la mise au point et la maturation de nouveaux procédés pour la fabrication de l’électronique de demain. Tandis que certaines voies de fabrication dites standards comme la photolithographie continuent de se développer, le CEA-Leti, au travers de divers partenariats, se positionne aussi en rupture avec des techniques innovantes telles que la nanoimpression. Cette technologie de réplication haute résolution utilisant un moule intermédiaire réutilisable permettrait de répondre au challenge dimensionnel dans diverses applications (électronique, optique, photonique, ...) avec un rendement amélioré (temps et coûts réduits) tout en offrant un potentiel important quant à une fabrication plus vertueuse. En effet, cette technique peut permettre une réduction globale du nombre d’étapes de fabrication mais aussi une réduction de la quantité de matériaux utilisés sur cette étape de structuration par une fabrication dite additive. Cette nouvelle approche offre la possibilité de revoir l'enchainement complet des étapes de fabrication et ouvre la voie à des intégrations auparavant impossibles. Cependant, les mécanismes de réplication d’un moule sur une résine sont encore trop peu compris, ainsi que la manière dont cela affecte le reste de l'intégration. Un modèle numérique capable d'anticiper la qualité de la réplication en fonction des paramètres expérimentaux permettrait de répondre à ces questions.
La thèse a pour but ultime l’obtention d’un modèle de remplissage applicable à n’importe quel dessin de puce. Dans un premier temps, ce modèle numérique sera construit à partir des caractéristiques physico-chimiques du matériau utilisé et des lois de remplissage théoriques. Il sera confronté à la réplication sur des motifs connus, caractérisés à l’aide des outils disponibles au sein du laboratoire. Un des points clef du modèle sera la prise en compte du dessin de la puce pour la prédiction du remplissage final, dans le but d’obtenir un modèle généralisable. Dans un second temps, le candidat pourra réaliser de nouvelles structures de test afin d’étendre le modèle et/ou d’optimiser les dimensions des motifs dans un but spécifique d’intégration. De plus, différents matériaux et paramétrages équipement pourront être testé par l'étudiant. Plus globalement, le doctorant devra développer une analyse fine afin de comprendre les mécanismes mis en jeu, potentiellement associée à un plan d’expérience mais aussi pousser les outils de calculs actuels sur des aspects encore peu explorés comme les structures 3D.
Le contrat de thèse se déroulera sur 3 ans tel un CDD avec une rémunération brut mensuelle de 2043,54€ lors de la 1ère et 2ème années puis de 2104,62€ pour la 3ème année. A l’issue de la thèse, les compétences transverses développées par le doctorant devraient lui permettre de travailler dans de nombreux secteurs de hautes technologiques tels que la nano- et la microélectronique, la chimie des matériaux ou plus généralement dans des domaines nécessitant du traitement de données ou de la modélisation physique.

Création d’un jumeau numérique du procédé de Spray Pyrolyse en Flamme

Notre capacité à fabriquer des nanoparticules (NP) d'oxyde métallique avec une composition, une morphologie et des propriétés bien définies est une clé pour accéder à de nouveaux matériaux qui peuvent avoir un impact technologique révolutionnaire, par exemple pour la photocatalyse ou le stockage d'énergie. Parmi les différentes technologies de production, les systèmes de Spray Pyrolyse en Flamme (SPF) constituent une option prometteuse pour la synthèse industrielle de NP. Cette voie de synthèse repose sur l'évaporation rapide d'une solution - solvant plus précurseurs - atomisée sous forme de gouttelettes dans une flamme pilote pour obtenir des nanoparticules. Malheureusement, la maitrise du procède de synthèse SPF est aujourd’hui limitée à cause d’une trop grande variabilité de conditions opératoires à explorer pour la multitude de nanoparticules cibles. Dans ce contexte, l'objectif de ce sujet de thèse est de développer le cadre expérimental et numérique nécessaire au déploiement futur de l’intelligence artificielle pour la maitrise des systèmes SPF. Pour ce faire, les différents phénomènes prenant place dans les flammes de synthèse au cours de la formation des nanoparticules seront simulés, notamment au moyen de calculs de dynamique des fluides. Au final, la création d’un jumeau numérique du procédé est attendue, qui permettra de disposer d’une approche prédictive pour le choix des paramètres de synthèse à utiliser pour aboutir au matériau souhaité, ce qui diminuera drastiquement le nombre d’expériences à réaliser et le temps de mise au point de nouvelles nuances de matériaux.

Calcul de la conductivité thermique des combustibles UO2 et de l’influence des défauts d’irradiation

L’étude du comportement sous irradiation du combustible nucléaire fait l’objet de simulations dont les résultats dépendent étroitement de ses propriétés thermiques et de leurs évolutions avec la température et l’irradiation. La conductivité thermique, qui est l'une des données d'entrée de ces simulation, peut à présent être obtenue pour l’oxyde 100% dense par simulation de dynamique moléculaire à l’échelle du monocristal, mais l’effet de défauts comme les défauts induits par l’irradiation (boucle d’irradiation, amas de lacunes) voire même des joints de grains (céramique avant irradiation) reste difficile à évaluer de façon couplée.
L’ambition de ce travail est d’inclure des défauts dans des supercellules de simulation et de calculer leur effet sur la conductivité thermique. En fonction de la taille des défauts considérés nous utiliserons soit la DFT (Density Functional Theory) soit un potentiel empirique ou numérique pour effectuer les simulations de dynamique moléculaire. Le code AlmaBTE permet de calculer la diffusion des phonons par des défauts ponctuels et le calcul de la diffusion des phonons par les dislocations et leur transmission à une interface ont aussi été récemment implémentés. Ainsi, le chaînage calculs atomistiques / AlmaBTE permettra de déterminer l’effet de la microstructure polycristalline et des défauts d’irradiation sur la conductivité thermique. A l’issue de cette thèse, les propriétés obtenues seront utilisées dans les outils de simulation existants afin d’estimer la conductivité d’un élément de volume (effet additionnel de la microstructure notamment du réseau poreux, calculs de mécanique des milieux continus avec la méthode FFT, donnée qui sera enfin intégrée dans la simulation du comportement de l’élément combustible sous-irradiation.
La thèse s’effectuera au sein du Département d’Études des Combustibles (Institut IRESNE-CEA Cadarache), dans un environnement scientifique caractérisé par une grande expertise sur la modélisation des matériaux, en collaboration étroite avec d’autres équipes du CEA à Grenoble et en région parisienne expertes des calculs atomistiques.

Simulation numérique à grande échelle et optimisation d’un nouveau concept d'injecteur pour augmenter la charge accélérée dans les accélérateurs d’électrons laser-plasma afin d’en permettre des applications scientifiques et technologiques

L'interaction d’un laser ultra-intense avec un jet de gaz peut être utilisée pour accélérer des paquets d'électrons très courts jusqu'à des énergies très élevées (jusqu’à plusieurs GeV) sur quelques centimètres seulement, avec une technique appelée “Laser WakeField Acceleration” (LWFA). La taille réduite de ces dispositifs et la durée très courte des paquets d'électrons en font une source potentiellement intéressante pour plusieurs applications scientifiques et technologiques. Cependant, l'LWFA ne fournit généralement pas assez de charge pour la plupart des applications envisagées, en particulier si une qualité de faisceau élevée et des énergies importantes sont également requises.

Le premier objectif de cette thèse est de comprendre la physique de base d'un nouveau schéma d'injection LWFA récemment conçu dans notre groupe: une cible solide couplée à un jet de gaz pour accélérer beaucoup plus de charge que les schémas d'injection conventionnels, tout en préservant la qualité du faisceau. Des campagnes de simulation numérique à grande échelle et des techniques d’apprentissage automatique seront utilisées pour optimiser les propriétés des électrons accélérés. Enfin, l’interaction de ces faisceaux d’électrons avec des échantillons sera simulée à l’aide d’un code Monte Carlo afin d'évaluer leur potentiel pour des applications telles que la Muon Tomography et la radiobiologie/radiothérapie. L’activité proposée est essentiellement numérique, mais avec la possibilité de participer aux activités expérimentales de l’équipe.

Le(a) doctorant(e) aura l'opportunité de participer aux activités d'une équipe dynamique avec de fortes collaborations nationales et internationales. Il/elle acquerra également les compétences nécessaires pour participer à des expériences d'interaction laser-plasma dans des installations d'envergure internationale. Enfin, il/elle acquerra les compétences nécessaires pour participer au développement d'un logiciel complexe écrit en C++ moderne et conçu pour utiliser efficacement les superordinateurs plus puissants au monde: le code Particle-In-Cell WarpX (prix Gordon Bell en 2022). L’activité de développement sera réalisée en collaboration avec l’équipe guidée par le Dr. J.-L. Vay à LBNL (US), où le/la doctorant(e) pourrait avoir l’opportunité de passer quelques mois au cours de la thèse.

Simulations cosmologiques de la formation des galaxies avec le calcul intensif exascale

Ce projet vise à améliorer la synergie entre les observations astronomiques, les simulations cosmologiques numériques et la modélisation des galaxies. Les futurs instruments tels qu'Euclid, DESI et Rubin LSST, entre autres, permettront des relevés de galaxies à champ large avec des mesures extrêmement précises. La précision accrue des observations exigera cependant des prévisions théoriques robustes des modèles de formation des galaxies pour parvenir à une compréhension approfondie de la physique fondamentale sous-jacente aux mesures cosmologiques.

Pour atteindre cet objectif, les exa-supercalculateurs joueront un rôle clé. Contrairement aux supercalculateurs modernes, qui se composent généralement de milliers de CPU pour la production de simulations de pointe, les exa-supercalculateurs utiliseront une configuration hybride de CPU hôtes avec des accélératrices GPU. Cette configuration permettra d'effectuer jusqu'à 10^18 opérations par seconde. Les exa-supercalculateurs révolutionneront notre capacité à simuler des volumes cosmologiques s'étendant sur 4 gigaparsecs (Gpc) avec 25 billions de particules, les exigences minimales en termes de volume et de résolution nécessaires pour faire des prédictions sur les données d'Euclid.

Cependant, le défi à ce jour réside dans le fait que les logiciels de simulation cosmologique conçus pour les exa-supercalculateurs manquent de modélisation de la formation des galaxies. Des exemples incluent le code HACC-CRKSPH (Habib et al. 2016, Emberson et al. 2019) et PKDGRAV3 (Potter, Stadel & Teyssier 2017), qui ont produit les plus grandes simulations à ce jour, FarPoint (Frontiere et al. 2022), regroupant 1,86 billion de particules dans un volume de 1 Gpc, et Euclid Flagship (Potter, Stadel & Teyssier 2017), présentant 2 billions de particules dans un volume de 3 Gpc, respectivement. Alors que HACC-CRKSPH et PKDGRAV3 ont été développés pour fonctionner sur des supercalculateurs modernes avec accélération GPU, ils manquent de la physique complexe de la formation des galaxies et ne peuvent donc produire que des boîtes cosmologiques basées uniquement sur la gravité.

Le code SWIFT (Schaller et al. 2023) est un effort parallèle qui a produit Flamingo (Schaye et al. 2023), la plus grande simulation intégrant la gravité, l'hydrodynamique et la physique de la formation des galaxies, regroupant 0,3 billion de particules. Cependant, l'inconvénient de SWIFT est qu'il a été principalement conçu pour une utilisation CPU. L'adaptation de SWIFT pour fonctionner sur des GPU modernes nécessitera la refonte complète du code. Un autre exemple concerne les simulations actuelles de la formation des galaxies réalisées à l'Irfu, telles qu'Extreme Horizon (Chabanier et al. 2020), qui ont également atteint leur limite car elles reposent sur des codes basés sur les CPU qui entravent leur extensibilité.

Comprendre les subtilités de la formation des galaxies est essentiel pour interpréter les observations astronomiques. Dans cette quête, le CEA DRF/Irfu est idéalement positionné pour conduire les avancées en astrophysique à l'ère émergente des exascales. Les chercheurs de DAp et DPhP ont déjà entrepris l'analyse de données de haute qualité de la mission Euclid et de DESI. Simultanément, une équipe de DEDIP développe DYABLO (Durocher & Delorme, en préparation), un code robuste de gravité + hydrodynamique spécialement adapté aux exa-supercalculateurs.

Ces dernières années, d'importants investissements ont été orientés vers l'avancement de DYABLO. De nombreux chercheurs de DAp et de DEDIP ont contribué sur divers aspects (de l'hydrodynamique de la physique solaire à l'amélioration des processus d'entrée/sortie) grâce à des subventions collaboratives telles que la subvention PTC-CEA et le projet européen FETHPC IO-SEA. De plus, DYABLO a bénéficié d'interactions avec l'unité de recherche CEA, Maison de la simulation (CEA & CNRS).

Ce projet ambitieux vise à étendre les capacités de DYABLO en intégrant des modules de formation des galaxies en collaboration avec Maxime Delorme. Ces modules comprendront le refroidissement et le chauffage radiatifs du gaz, la formation d'étoiles, l'enrichissement chimique, la perte de masse stellaire, la rétroaction d'énergie, les trous noirs et la rétroaction des noyaux actifs de galaxies. L'objectif ultime est d'améliorer l'analyse des données d'Euclid et de DESI en générant des prévisions de simulation de la formation et de l'évolution des galaxies à l'aide de DYABLO. L'ensemble initial de données impliquera un examen complet de la distribution de la matière et de la distribution des galaxies, en partenariat avec les chercheurs de DAp/LCEG et DAp/CosmoStat.

Cette thèse créera la première version d'un code de formation des galaxies optimisé pour les supercalculateurs à l'échelle exa. Les développements en cours permettront non seulement d'étendre ses capacités, mais aussi d'ouvrir de nouvelles opportunités pour des recherches approfondies, améliorant la synergie entre les observations astronomiques, les simulations cosmologiques numériques et la modélisation des galaxies.

References:
Habib, S., et al., 2016, New Astronomy, Volume 42, p. 49-65.
Emberson, J.D., et al., 2019, The Astrophysical Journal, Volume 877, Issue 2, article id. 85, 17 pp.
Potter, D., Stadel, J., & Teyssier, R., 2017, Computational Astrophysics and Cosmology, Vol. 4, Issue 1, 13 pp.
Frontiere, N., et al., 2023, The Astrophysical Journal Supplement Series, Volume 264, Issue 2, 24 pp.
Schaller, M., et al., 2023, eprint arXiv:2305.13380
Schaye, J., et al., 2023, eprint arXiv:2306.04024
Chabanier, S., et al., 2020, Astronomy & Astrophysics, Volume 643, id. L8, 12 pp.

Top