Développement d’une analyse automatique des spectres gamma à l’aide d’un algorithme hybride machine learning pour la caractérisation radiologique des installations nucléaires en cours de démantèlement.
L’application de la spectrométrie gamma à la caractérisation radiologique dans le cadre du démantèlement des installations nucléaires, nécessite le développement d’algorithmes spécifiques pour l’analyse automatique des spectres. En particulier, la classification des déchets en béton, suivant leur niveau de contamination, représente un enjeu crucial pour le contrôle du coût de démantèlement.
Au sein du CEA/List, le LNHB en collaboration avec le CEA/DEDIP, est impliqué depuis quelques années dans le développement d’outils d’analyse automatique des spectres gamma à faible statistique, pouvant notamment être appliqués aux détecteurs scintillateurs (NaI(Tl), plastiques). Dans ce contexte, une approche originale fondée sur un algorithme hybride machine learning/statistique de démélange spectral, a été développée pour l’identification et la quantification de radionucléides en présence de fortes déformations du spectre mesuré, dues notamment aux interactions de l’émission gamma de la source radioactive avec son environnement.
Le sujet proposé fait suite aux travaux de thèse ayant permis le développement l’algorithme hybride dans le but d’étendre cette approche à la caractérisation radiologique des surfaces en béton. Le candidat sera impliqué dans l’évolution de l’algorithme hybride machine learning/statistique pour la caractérisation de béton pour le classement en déchets conventionnels. Le travail comprendra une étude de faisabilité de la modélisation des écarts du modèle appris pour optimiser la robustesse de la prise de décision.
Modélisation électromagnétique des signatures radar et IA pour la reconnaissance d’objets
Cette thèse offre une opportunité unique de travailler à l’interface entre l’électromagnétisme, la simulation numérique et l’intelligence artificielle, afin de contribuer au développement des systèmes intelligents de détection et de reconnaissance de nouvelle génération. Le/la stagiaire intégrera le Laboratoire Antenne et Propagation (LAPCI) du CEA-LETI, à Grenoble (France), un environnement de recherche de rang mondial disposant d’équipements à la pointe de la technologie pour la caractérisation et la modélisation du canal de propagation, tels que des sondeurs de canal, des émulateurs, des chambres anéchoïques et des simulateurs électromagnétiques avancés. Une collaboration avec l’Université de Bologne (Italie) est prévue durant la thèse.
Cette thèse vise à développer des modèles électromagnétiques avancés de rétrodiffusion radar en champ proche, adaptés aux systèmes radar et JCAS opérant aux fréquences mmWave et THz. Les travaux porteront sur la modélisation physique de la signature radar d’objets étendus, en tenant compte des effets de champ proche, des configurations multi-statiques et multi-antennes, ainsi que de l’influence des matériaux et de l’orientation des cibles. Ces modèles seront validés par simulations électromagnétiques et par des campagnes de mesures, puis intégrés dans des outils de simulation de scène et de propagation multi-trajets de type ray-tracing. Les signatures radar ainsi obtenues seront exploitées pour entraîner des algorithmes d’intelligence artificielle dédiés à la reconnaissance d’objets, à l’inférence des propriétés des matériaux et à l’imagerie radar. En parallèle, des approches d’IA assistée par la physique seront étudiées afin d’accélérer les simulations électromagnétiques et de réduire leur complexité computationnelle. L’objectif final de la thèse est d’intégrer ces informations issues de la rétrodiffusion radar dans un framework de Semantic Radio SLAM 3D, afin d’améliorer la localisation, la cartographie et la compréhension de l’environnement dans des scénarios complexes ou partiellement masqués.
Nous recherchons un(e) étudiant(e) de niveau école d’ingénieur ou Master 2, avec de solides bases en traitement du signal, électromagnétisme, radar ou télécommunications. Un intérêt pour l’intelligence artificielle, la modélisation physique et la simulation numérique est attendu. Des compétences en programmation (Matlab, Python) seront appréciées, ainsi qu’une capacité à travailler à l’interface entre modèles théoriques, simulations et expérimentations. Curiosité scientifique, autonomie et motivation pour la recherche sont essentielles.
La candidature doit inclure un CV, un relevé de notes et une lettre de motivation.
Simulation numérique de modèles de turbulence sur des maillages déformés
La turbulence joue un rôle important dans de nombreuses applications industrielles (écoulement, transfert de chaleur, réactions chimiques). Comme la simulation directe (DNS) est souvent d’un coût excessif en temps calcul, les modèles en moyenne de Reynolds (RANS) sont alors utilisés dans les codes de CFD (computational fluid dynamics). Le plus connu, qui a été publié dans les années 70, est le modèle k – e. Il se traduit par deux équations additionnelles non-linéaires couplées aux équations de Navier-Stokes, décrivant le transport, pour l’une, de l’énergie cinétique turbulente (k) et, pour l’autre, de son taux de dissipation (e). Une propriété très importante à vérifier est la positivité des paramètres k et e qui est nécessaire pour que le système d’équations modélisant la turbulence reste stable. Il est donc crucial que la discrétisation de ces modèles préserve la monotonie. Les équations étant de type convection-diffusion, il est bien connu qu’avec des schémas classiques linéaires (Eléments finis, Volumes finis etc…), les solutions numériques sont susceptibles d’osciller sur des mailles déformées. Les valeurs négatives des paramètres k et e sont alors à l’origine de l’arrêt de la simulation. Il s’avère donc nécessaire de rendre monotone les schémas linéaires classiques de la littérature de manière consistante et stable.
Nous nous intéressons aux méthodes non linéaires permettant d’obtenir des stencils compacts. Pour des opérateurs de diffusion, elles reposent sur des combinaisons non linéaires de flux de part et d’autre de chaque arête. Ces approches ont montré leur efficacité, particulièrement pour la suppression d’oscillations sur des maillages très déformés. On pourra également reprendre les idées proposées dans la littérature, où il est par exemple décrit des corrections non linéaires s’appliquant sur des schémas linéaires classiques.
L’idée serait donc d’appliquer ce type de méthode sur les opérateurs diffusifs apparaissant dans les modèles k-e. Dans ce contexte, il sera également intéressant de transformer des schémas classiques de la littérature approchant les gradients en schémas non linéaires à deux points. Des questions fondamentales doivent être examinées dans le cas de maillages généraux à propos de la consistance et de la coercivité des schémas étudiés.
Au cours de la thèse, on prendra le temps de régler les problèmes de fond de ces méthodes (première et seconde année), à la fois sur les aspects théoriques et sur la mise en œuvre informatique. Cette dernière pourra être effectuée dans les environnements de développement Castem, Trust/TrioCFD ou POLYMAC. On s’intéressera alors à des solutions analytiques régulières et aux cas d’application représentatifs de la communauté.
Schéma décalé pour les équations de Navier-Stokes avec des mailles de forme générale
La simulation des équations de Navier-Stokes demande de disposer de méthodes numériques précises et robustes prenant en compte des opérateurs de diffusions, des termes de gradient et de convection. Les approches opérationnelles ont montré leur efficacité sur des simplexes. Cependant, dans certaines modélisations ou certains codes (TrioCFD, Flica5), il peut être utile d’améliorer localement la précision des solutions à l’aide d’un estimateur d’erreur ou bien de prendre en compte des mailles de forme générale.
Rappelons que nous nous intéressons ici à des schémas décalés. Cela signifie que la pression est calculée au centre des mailles et les vitesses sur les arêtes (ou les faces) du maillage. On obtient alors des méthodes naturellement précises à bas nombre de Mach.
De nouveaux schémas ont été présentés récemment dans ce contexte et ont montré leur robustesse et leur précision. Cependant, ces discrétisations peuvent être très coûteuses en place mémoire et en temps calcul en comparaison aux schémas MAC sur des maillages réguliers.
Nous nous intéressons aux méthodes de type « gradient ». Certaines d’entre elles reposent sur une formulation variationnelle avec des inconnues de pression aux centres des mailles et des inconnues de vecteur vitesse sur les arêtes (ou les faces) des cellules. Cette approche a montré son efficacité, particulièrement en termes de robustesse.
Notons également qu’un algorithme avec les mêmes degrés de libertés que les méthodes MAC a été proposé et donne des résultats prometteurs.
L’idée serait donc de combiner ces deux approches, à savoir la méthode « gradient » avec les mêmes degrés de libertés que les méthodes MAC. Dans un premier temps, on s’attachera à retrouver les schémas MAC sur les maillages réguliers. Des questions fondamentales doivent être examinées dans le cas de maillages généraux : stabilité, consistance, conditionnement du système à inverser, verrouillage numérique.
On pourra également essayer de retrouver les gains en précisions obtenus à l’aide des méthodes pour discrétiser les gradients de pression.
Au cours de la thèse, on prendra le temps de régler les problèmes de fond de cette méthode (première et seconde année), à la fois sur les aspects théoriques et sur la mise en oeuvre informatique. Cette dernière pourra être effectuée dans les environnements de développement Castem, Trust/TrioCFD, ou POLYMAC. On s’intéressera alors aux cas d’application représentatifs de la communauté.
Développement d’un modèle de chimie transport, sous radiolyse de l’eau, d’un combustible usé en stockage géologique profond
Le stockage direct des combustibles usés (CU) est une solution alternative à leur retraitement pour la gestion des déchets nucléaires. Ce stockage direct des CU en milieu géologique profond pose des défis scientifiques liés à la compréhension fine des processus de dissolution et de libération des radionucléides. Ce sujet de thèse propose de développer un modèle scientifique détaillé, capable de décrire les mécanismes physico-chimiques complexes, tels que la radiolyse de l'eau et l'interaction entre le combustible irradié et son environnement. L'objectif est de proposer une modélisation du transport réactif précise pour améliorer la prédiction à long terme des performances du stockage. En utilisant des approches mécanistes, cette thèse s’inscrit dans une démarche d’aller-retour entre modélisation et expérimentation, visant à affiner la compréhension des mécanismes d'altération et à valider les hypothèses par des données expérimentales. Finalement, en s'appuyant sur des modèles existants, comme le modèle opérationnel radiolytique, ce travail proposera des améliorations pour réduire les hypothèses simplificatrices actuelles. Le candidat contribuera à des enjeux industriels et sociétaux majeurs liés à la gestion des déchets nucléaires et permettra d'apporter des solutions aux enjeux de sûreté associés.
Préconditionnement hybride CPU–GPU pour les simulations éléments finis sur architectures exascale
Les supercalculateurs exascale reposent sur des architectures hétérogènes combinant des CPU et des GPU, ce qui rend nécessaire une refonte des algorithmes numériques afin d’exploiter pleinement l’ensemble des ressources disponibles. Dans les simulations par éléments finis à grande échelle, la résolution des systèmes linéaires au moyen de solveurs itératifs et de préconditionneurs de type multigrille algébrique (AMG) constitue encore un goulet d’étranglement majeur en termes de performance.
L’objectif de cette thèse est d’étudier et de développer des stratégies de préconditionnement hybrides adaptées à ces systèmes hétérogènes. Le travail visera à analyser comment les techniques multiniveaux et AMG peuvent être structurées pour utiliser efficacement à la fois les CPU et les GPU, sans restreindre les calculs à un seul type de processeur. Une attention particulière sera portée à la distribution des données, au placement des tâches et aux interactions CPU–GPU au sein des solveurs multiniveaux.
D’un point de vue numérique, la recherche portera sur l’analyse et la construction des opérateurs multiniveaux, incluant les hiérarchies de grilles, les opérateurs de transfert inter-niveaux et les procédures de lissage, exécutés sur les CPU et les GPU disponibles. L’impact de ces choix sur la convergence, les propriétés spectrales et la robustesse des méthodes itératives préconditionnées sera étudié. Des critères mathématiques guidant la conception de préconditionneurs hybrides efficaces seront établis et validés sur des problèmes représentatifs en éléments finis, par exemple pour des applications en sismologie à l’échelle régionale.
Ces développements seront couplés à des stratégies de décomposition de domaine et de parallélisation adaptées aux architectures hétérogènes. Une attention particulière sera accordée aux transferts de données CPU–GPU, à l’utilisation de la mémoire et à l’équilibre entre noyaux liés au calcul et liés à la bande passante mémoire. L’interaction entre les choix numériques et les contraintes matérielles, telles que les hiérarchies mémoire CPU et GPU, sera conçue et développée afin d’assurer des implémentations scalables et efficaces.
Développement d'une approche macroscopique pour la dégradation à long terme des structures en béton sous irradiation
Dans les centrales nucléaires, la protection biologique en béton (CBS) est conçue à proximité de la cuve du réacteur. Cet élément, qui joue également le rôle de structure porteuse, absorbe donc les radiations. Il est ainsi exposé pendant la durée de fonctionnement de la centrale à des niveaux élevés de radiations qui peuvent avoir des conséquences à long terme. Ces radiations peuvent notamment entraîner une diminution des propriétés mécaniques des matériaux et de la structure. Etant donné son rôle clé, il est donc nécessaire de développer des outils et des modèles, pour prédire les comportements de telles structures à l'échelle macroscopique.
Sur la base des résultats existants obtenus à une échelle inférieure - simulations mésoscopiques, à partir desquelles une meilleure compréhension de l'effet de l'irradiation peut être obtenue, et des résultats expérimentaux qui viendront alimentés la simulation (propriétés des matériaux en particulier), il est proposé de développer une méthodologie macroscopique pour le comportement de la protection biologique en béton. Cette approche inclura différents phénomènes, parmi lesquels l'expansion volumétrique induite par le rayonnement, le fluage induit, les déformations thermiques et le chargement mécanique.
Les outils seront développés dans le cadre de la mécanique de l'endommagement. Les principaux défis numériques concernent la proposition et l'implémentation de lois d'évolution adaptées, et en particulier le couplage entre l'endommagement microstructural et l'endommagement au niveau structurel dû aux contraintes appliquées sur la structure.
Ce travail numérique pourra être réalisé dans un contexte de collaboration internationale. Il permettra au candidat retenu de développer un ensemble de compétences autour de la simulation de structures en béton armé en environnement complexe.
Développement d'un nouveau schéma, basé sur la T-coercivité, pour discrétiser les équations de Navier-Stokes.
Dans le code TrioCFD, la discrétisation des équations de Navier-Stokes conduit à une résolution en trois étapes (cf. Chorin'67, Temam'68) : prédiction de la vitesse, résolution de la pression, correction de la vitesse. Si on veut utiliser un schéma de discrétisation en temps implicite, l'étape de résolution de la pression est particulièrement coûteuse. Ainsi, la plupart des simulations sont effectuées à l'aide d'un schéma en temps explicite, pour lequel le pas de temps dépend du pas du maillage, ce qui peut être fortement contraignant. On aimerait élaborer un schéma de discrétisation en temps implicite, en utilisant une formulation stabilisée du problème de Navier-Stokes basée sur la T-coercivité explicite (cf. Ciarlet-Jamelot'25). Il serait alors possible de résoudre directement un schéma implicite sans étape de correction, ce qui pourrait améliorer notablement les performances des calculs. Cela permettrait également d'utiliser la paire éléments finis P1-P0, économe en terme de degrés de liberté, mais instable pour une formulation classique.
Evaluation de méthodes polytopales pour la CFD sur architecture GPU
Cette proposition de recherche se place dans le cadre de l’étude et de l’implémentation de méthodes polytopales pour résoudre les équations de la mécanique des fluides. Ces méthodes ont pour but de traiter des maillages les plus généraux possibles permettant de s’affranchir de contraintes géométriques de forme ou héritées de manipulations CAO comme des extrusions ou des assemblages faisant apparaître des non-conformités. Ces travaux se placent également dans le cadre du calcul intensif en vue de répondre à l’augmentation des moyens de calcul et en particulier du développement du calcul massivement parallélisé sur GPU.
L’objectif de cette thèse est donc de reprendre les travaux réalisés sur les méthodes de type polytopales existantes dans le logiciel TRUST que sont les méthodes "Compatible Discrete Operator" (CDO) et"Discontinuous Galerkin" (DG), de compléter leur étude notamment pour les opérateurs de convection et d’investiguer d’autres méthodes existantes dans la littérature comme les méthodes "Hybrid High Order"(HHO), "Hybridizable Discontinuous Galerkin" (HDG) ou "Virtual Element Method" (VEM).
Les objectifs principaux sont d’évaluer :
1. le comportement numérique de ces différentes méthodes sur les équations de Stokes/Navier-Stokes,
2. l’adaptabilité de ces méthodes à des architectures hétérogène telles que les GPU.
Optimisation topologique multi-matériaux robuste sous contrainte de fabricabilité appliquée au design d’aimant supraconducteur pour les IRMs haut champ
Les scanners IRM sont des outils très précieux pour la médecine et la recherche, dont le fonctionnement repose sur l'exploitation des propriétés des noyaux atomiques plongés dans un champ magnétique statique très intense. Celui-ci est généré, dans la quasi-totalité des scanner IRM, par un électroaimant supraconducteur.
La conception des électroaimants pour les IRM doit répondre à des contraintes très exigeantes sur l'homogénéité du champ produit. De plus, à mesure que le champ magnétique devient plus intense, les forces s'exerçant sur l'électroaimant augmentent et font émerger le problème de la tenue mécanique des bobinages. Enfin, la « fabricabilité » de l'électroaimant impose des contraintes sur les formes des solutions acceptables. La conception des électroaimants supraconducteurs pour les IRM demande donc un effort minutieux d'optimisation du design, soumise à des contraintes basée sur une modélisation multiphysique magnéto-mécanique.
Une nouvelle méthodologie innovante d'optimisation topologique multiphysique a été développée, sur la base d'une méthode à densité (SIMP) et d'un code de calcul par éléments finis. Celle-ci a permis de produire des designs d'aimants satisfaisant les contraintes sur l'homogénéité du champ magnétique produit et sur la tenue mécanique des bobinages. Toutefois, les solutions obtenues ne sont pas fabricables en pratique, tant du point de vue de la fabricabilité des bobines (enroulements des câbles) que de son intégration avec une structure portante (maintien des bobines par une structure en acier).
L'objectif de cette thèse est d'enrichir la méthode d'optimisation topologique amorcée en formalisant et en implémentant des contraintes de fabrication liées à manière de bobiner, aux contraintes résiduelles résultant d'une pré-tension des câbles au bobinage, et également à la présence d'un matériau de structure pouvant reprendre les efforts transmis par les bobines.