Modélisation thermo-aéraulique d’un réacteur d’incinération

Le laboratoire des Procédés Thermiques Innovants (LPTI) du CEA Marcoule développe un procédé d’incinération-vitrification In-Can (PIVIC) visant le traitement des déchets mixtes organiques/métalliques générés par les installations de production du combustible MOX. Le programme de développement de ce procédé s’appuie sur des essais réalisés sur prototype échelle 1 mais également sur l’exploitation de l’outil de simulation numérique.
Le modèle thermo-aéraulique du réacteur d’incinération PIVIC, développé sous le logiciel Ansys-Fluent est bâti sur une articulation de modèles élémentaires (plasma, pyrolyse, combustion, transport particulaire).
Le travail proposé consiste à perfectionner le modèle, notamment en ce qui concerne les composantes pyrolyse/combustion : complexification de la chimie réactionnelle, prise en compte du caractère instationnaire du processus… Le niveau de représentativité du modèle thermo-aéraulique sera évalué sur la base d’une étude comparative exploitant des données expérimentales issues d’essais sur prototype. Parallèlement à ces travaux de développement, différentes études paramétriques seront réalisées afin de tester l’impact de certaines modifications de configuration du réacteur.
En plus des aspects de maîtrise et pilotage de l’incinération, un autre enjeu majeur du projet consiste à évaluer le taux d’encrassement radiologique des parois du réacteur lors de l’incinération d’un déchet contaminés en émetteurs alpha. L’évaluation de cet encrassement radiologique du réacteur s’appuiera sur un modèle d’entraînement particulaire (DPM) associé à un modèle d’interaction pariétal. Les résultats de simulation de taux d’encrassement seront confrontés à des données expérimentales issues d’analyses de dépôts collectés sur les parois du réacteur (essais réalisés en inactif avec simulants d’actinides). Ce travail comparatif pourra donner lieu à des modifications du paramétrage du modèle physique.

Développement et optimisation de techniques de rafinement de maillage adaptatif (AMR) pour des problèmes d'intéraction fluide/structure dans un contexte de calcul haute performance

Le CEA développe actuellement un nouveau code de simulation pour la mécanique des structures et des fluides compressibles : Manta. Ce code a pour double objectif d'unifier les fonctionnalités des codes historiques implicite et explicite du CEA et d'être nativement orienté vers le calcul intensif. Grâce à de nombreuses méthodes numériques (éléments finis, volumes finis, résolutions de problèmes implicites ou explicites, ...), Manta permet de simuler différents types de problèmes mécaniques dynamiques ou statiques pour la structure et le fluide, ainsi que l'interaction fluide-structure.

Dans le cadre de la recherche d'optimisation et de gain en temps de calcul, une des techniques incontournables pour améliorer la précision des solutions tout en maîtrisant les coûts de calcul est l'adaptation dynamique du maillage (ou AMR pour « Adaptive Mesh Refinement »).

Ce postdoc s'attache à la définition et à la mise en œuvre d'algorithmes d'AMR dans un contexte de calcul haute performance pour des problèmes faisant intervenir des fluides et des structures en intéraction.

Une tâche préliminaire consistera à implémenter des fonctionnalités de raffinement de maillage hiérarchique dans Manta (sous-découpage/fusion de cellules, transferts des champs, critères de raffinement, création de liaisons pour les « hanging-nodes »). Ces travaux se feront si possible en s'appuyant sur des librairies externes.

Dans un second temps, il s'agira d'optimiser les performances des calculs parallèles à mémoire distribuée. En particulier, il sera essentiel de définir une stratégie d'équilibrage de charge entre les processus MPI, en particulier dans le cadre de problèmes d'intéraction fluide/structure.

Enfin, en particulier pour des calculs explicites, il faudra définir et mettre en œuvre des techniques d'adaptation du pas de temps en fonction du niveau de raffinement.

Ces deux derniers points donneront lieu à une ou plusieurs publications dans des revues spécialisées.

Implantation et extension de la bibliothèque de solveur Alien dans la proto-application Hélix

Le travail du post-doctorant sera dans un premier temps d’intégrer la solution Alien dans Helix, de réaliser des évaluations de performances et d’usage en configuration solveur direct ou itératif. Ces évaluations seront réalisées sur divers architectures allant de la machine de bureau jusqu'aux supercalculateurs nationaux sur plusieurs centaines voire milliers de cœurs de calcul.
Dans un second temps, le post-doctorant traitera la possibilité d’ajouter de nouvelles fonctionnalités dans la bibliothèque Alien pour résoudre des systèmes non-linéaires composés d'équations et d'inéquations afin de pouvoir résoudre dans un cadre HPC certains de problèmes de mécanique comme les méthodes de champs de phase ou bien les problèmes de contacts, sujet encore ouvert dans la communauté. Les résultats seront comparés aux cas tests et benchmark classiques de l’état de l’art du domaine.
Le candidat intégrera l'équipe de développement d'Helix, constituée pour le moment de 3/4 personnes au sein du laboratoire LM2S d'une quinzaine de personnes. Le post-doc se réalise dans le cadre d'un projet transverse entre les différentes directions du CEA. Le candidat collaborera donc également avec les auteurs de la bibliothèque Alien, à la DAM du CEA.

Détection de cyber-attaques dans un capteur embarqué pour l’analyse de sols

Ce post-doc aura pour charge d’appliquer des techniques de « machine learning » pour la détection attaques sur un système de multiples capteur connectés. Le domaine applicatif concerne l’agriculture, pour lequel le CEA LETI réalise déjà plusieurs projets, dont le projet H2020 SARMENTI (Smart multi-sensor embedded and secure system for soil nutrient and gaseous emission monitoring). L’objectif de SARMENTI est de développer et valider un système multi-capteurs à basse consommation, sécurisé et connecté au « cloud, » qui permettra une analyse in situ et en temps–réel des nutriment et de la fertilité du sol afin de fournir une aide à la décision aux agriculteurs. Dans ce cadre, le post-doc aura la charge des analyses de cyber-sécurité, de déterminer les risques principaux sur ces capteurs connectés, mais également de la spécification du module de détection d’attaques. L’algorithme de détection sous-jacent sera basé sur la détection d’anomalie, par ex. « one class classifier. » Ce travail aura trois parties, l’implémentation des sondes qui analyseront des événements sélectionnés, l’infrastructure de communication entre les sondes et le détecteur, ainsi que le détecteur proprement dit.

Science des données pour les matériaux hétérogènes

Pour mieux prédire les propriétés fonctionnelles des matériaux hétérogènes par des démarches basées sur la simulation numérique, il est impératif de fournir des données fiables concernant l’agencement spatial des phases constitutives des matériaux ainsi que leurs propriétés. Dans ce but, de nombreux outils expérimentaux sont couramment employés pour caractériser spatialement les propriétés physiques et chimiques des matériaux, générant des données multispectrales. Un axe de progrès pour une meilleure compréhension des phénomènes est donc la combinaison des différentes données d’imagerie par les techniques de la science des données. L’objectif de ce post-doc est d’enrichir les connaissances matériau, par la découverte/quantification des corrélations dans les données (par exemple établir des liens entre la composition chimique et le comportement mécanique) et de fiabiliser et réduire les incertitudes sur les propriétés, en prenant en compte des informations physiques et chimiques. Des outils logiciels seront mis au point et appliqués a des données d’intérêt acquises sur des matériaux cimentaires ou des couches de produits de corrosion d’objets archéologiques.

Calcul de perturbations et sensibilités par méthodes de Monte Carlo

La théorie des perturbations/sensibilités au premier ordre vise uniquement le calcul de la réactivité du réacteur. De nombreux défis existent quant à la généralisation et à l’applicabilité des algorithmes de pondération par le flux adjoint à l’analyse de sensibilité d’observables physiques arbitraires (« sensibilités généralisées »). Le développement de cette thématique constitue un axe fondamental de recherche pour la simulation Monte Carlo, avec des retombées attendues pour les simulations de criticité dans le code Monte Carlo TRIPOLI-4. Le post-doc s’intéressera donc au développement et au test de méthodes novatrices pour le calcul d’observables physiques pondérées par le flux adjoint, telles que les formes linéaires ou bi-linéaires (paramètres cinétiques, perturbations, sensibilités et sensibilités généralisées) d’intérêt pour la physique des réacteurs.

Sécurisation énergétiquement efficace de fonctions de sécurité pour l’IoT en technologie FDSOI 28nm

La sécurité des objets connectés doit être efficace en énergie. Or, la plupart des travaux
autour de la sécurisation par la conception montrent un surcoût, d’un facteur
multiplicatif de 2 à 5, en surface, en performance, en puissance et en énergie, qui ne
satisfait pas les contraintes de l’IoT. Ces 5 dernières années les efforts de recherche
sur la sécurisation ont été guidés par la réduction de la surface silicium voire de la
puissance, ce qui n’implique pas toujours à une diminution de l’énergie, critère
prédominant dans les objets connectés autonomes. Le sujet de post-doc vise la sécurisation
vis à vis d’attaques potentielles, et l’optimisation en consommation énergétique, de
l’implémentation de fonctions de sécurité (capteurs de détection d’attaques, accélérateur
cryptographique, générateur de nombre aléatoire, etc.) en technologie FDSOI 28nm.
A partir de la sélection de briques de sécurité non sécurisées, disponibles sur FPGA, le
post-doc explorera les solutions de sécurisation à tous les niveaux du flot de conception
afin de proposer et de valider, dans un démonstrateur silicium, les contre-mesures les
plus efficaces en énergie tout en garantissant le niveau de sécurité choisi.

Simulation des écoulements d’hélium supercritique dans les circuits de refroidissements des tokamaks

Les futurs réacteurs de fusion de type tokamak (ITER, DEMO) devront démontrer la sûreté nucléaire de leurs systèmes, validée par des codes de thermo-hydraulique. Pour répondre à cette demande nous proposons de choisir comme outil de calcul scientifique le code CATHARE (code avancé de thermo-hydraulique pour les réacteurs à eau). Le travail proposé consistera à adapter le code CATHARE à l’hélium à basse températures et par la suite le comparer dans le cadre d’un benchmark avec les codes de la DRF et des données expérimentales disponibles au CEA Grenoble.
L’étude sera menée en trois étapes. Une première phase sera dédiée à une recherche bibliographique sur la thermo-hydraulique de l’hélium et à l’identification des relations de fermeture pour l’hélium monophasique. Dans un deuxième temps l’ingénieur implémentera ces lois dans le code. Enfin la dernière partie portera sur la validation des résultats. Cette validation consistera à réaliser un benchmark qui s’appuiera sur trois applications : étude d’une cryo-pompe, étude d’un circuit de décharge d’hélium super-critique et étude d’un câble supra-conducteur.

Analyse de la qualité numérique de codes à l’aide de CADNA, Verificarlo et Verrou

Les codes de calcul reposent sur l’arithmétique à virgule flottante pour représenter des nombres réels et les opérations qui leur sont appliquées. Or les réels ne peuvent en général pas être représentés de manière exacte par des nombres flottants. La précision finie de l’arithmétique à virgule flottante conduit à des erreurs d’arrondi qui peuvent s’accumuler. Avec l’augmentation de la puissance de calcul, la complexification des algorithmes et le couplage d’applications, il est crucial de pouvoir quantifier la robustesse d’une application ou d’un algorithme.

Les outils CADNA [1], Verificarlo [2] et Verrou [3] permettent d’estimer la propagation d’erreurs d’arrondi et de mesurer la qualité numérique des résultats. L’objectif de ce travail est d’utiliser ces trois outils dans les applications GYSELA [4,5] (utilisée dans le domaine de la fusion pour caractériser la dynamique des turbulences dans le plasma des Tokamaks) et PATMOS [6] (mini-application représentative d’un code de transport neutronique Monte Carlo) afin d’analyser la robustesse numérique de ces applications ou de certains de leurs algorithmes. Outre l’analyse de la qualité numérique des résultats, ces outils seront aussi utilisés afin d’évaluer s’il est possible de dégrader la précision (simple ou demi-précision au lieu de double) pour certains algorithmes permettant des gains sur l’empreinte mémoire et/ou les performances (vectorisation, taille des communications). Au-delà des enseignements sur les deux codes analysés, un second objectif est la mise en place d’une méthodologie qui pourrait s’appliquer à d’autres codes de calcul tirant parti des complémentarités de ces trois outils.

Développements des outils multiphysiques dédiés à la modélisation des réacteurs RNR-Na et études associées.

Le groupe sodium du DM2S (département du CEA Saclay) développe des outils numériques de couplage afin de réaliser des études de cas accidentels (transitoires rapides). Les domaines physiques concernés sont la neutronique, la thermo-hydraulique et la mécanique. Le sujet de ce post-doc s’inscrit dans ce cadre.
Il s’agit de mener plusieurs travaux : l’intégration d’un couplage au sein de la plateforme CORPUS, réaliser des études dans le but de tester les effets et introduire dans le couplage l’impact, sur l’écoulement du sodium, de la déformation des assemblages par la température, l’utilisation des sections efficaces neutroniques générées par le code APOLLO3, l’étude d’autres cas accidentels, et étendre la modélisation à l’échelle sous-canal et aiguille.

Top