Modélisation de la sédimentation et de la coalescence des gouttes dans les mélangeurs-décanteurs pour l’extraction liquide–liquid
La transition énergétique vers des technologies bas carbone (batteries Li-ion, photovoltaïque, éolien) dépend de matériaux critiques comme les terres rares (Dy, Nd, Pr) et certains métaux (Co, Ni, Li). Leur extraction pose des problèmes environnementaux, et leur recyclage reste limité du fait de leur faible concentration dans des déchets complexes, rendant leur séparation difficile. L’extraction liquide-liquide s’impose comme une méthode efficace pour purifier ces mélanges, mais son industrialisation est freinée par une compréhension partielle des phénomènes physico-chimiques impliqués, notamment dans les mélangeurs-décanteurs. Ces équipements, alliant chambre de mélange et zone de décantation, sont prisés pour leur compacité et leur rendement énergétique. Toutefois, les modèles actuels restent semi-empiriques, centrés sur la phase de mélange, et donc insuffisants pour prédire le comportement à grande échelle. Dans ce contexte, le programme national PEPR « Recyclabilité et réutilisation des matériaux » soutient une initiative du CEA visant à développer un jumeau numérique de ces dispositifs. Le postdoctorat proposé s’intègre à ce projet et porte sur la modélisation du décanteur. Le candidat mènera des expériences sur des émulsions bien caractérisées, injectées dans une maquette dédiée pour étudier leur sédimentation et l’évolution de la taille des gouttes. Ces données expérimentales serviront à valider un modèle décrivant le transport gravitaire et hydrodynamique des gouttelettes, ainsi que les phénomènes de coalescence et de rupture. Ce modèle sera ensuite couplé à celui de la chambre de mélange déjà en cours de développement, en vue d’obtenir un premier jumeau numérique.
VALERIAN: simulation du transport d'électrons pour les modules les modules ITkPix d'ATLAS
Une description précise du transport des électrons et des photons dans la matière est cruciale dans plusieurs domaines phares du CEA, notamment la radioprotection et l’instrumentation nucléaire. Leur validation nécessite des études paramétriques dédiées et des mesures. Étant donné le peu de données expérimentales publiques, des comparaisons entre codes de calcul sont aussi utilisées. L’enjeu pour les années à venir est une qualification de ces codes dans un large domaine d'énergie, certains écarts entre leurs résultats ayant été identifiés lors d’études préliminaires du SERMA faisant intervenir le transport couplé de neutrons, photons et électrons. Le projet VALERIAN consiste à saisir l’opportunité créée par une campagne de prise de données unique en son genre prévue en 2025-2026 à l’IRFU (DRF) pour mieux caractériser ces écarts. En effet, l’IRFU s’est engagé à contrôler au moins 750 modules à pixels pour le nouveau trajectographe de l’expérience ATLAS, dans le cadre de la jouvence des grands détecteurs du CERN. De nombreuses mesures avec des sources bêta seront réalisées en 2025-2026 pour la qualification de ces modules.
Étude de la formulation Vitesse-Vorticité-Pression pour discrétiser les équations de Navier-Stokes.
Les équations de Navier-Stokes incompressibles sont parmi les modèles les plus
utilisés pour décrire les écoulements d’un fluide newtonien (c’est-à-dire un fluide dont la viscosité est indépendante des forces extérieures appliquée au fluide). Ces équations modélisent le champ de vitesse et le champ de pression du fluide. La première des deux équations n’est autre que la loi de Newton, tandis que la seconde découle de la conservation de la masse dans le cas d’un fluide incompressible (la divergence de la vitesse est nulle). L’approximation numérique de ces équations est un véritable défi en raison de leur caractère tridimensionnel et instationnaire, de la contrainte de divergence nulle et enfin de la non-linéarité du terme de convection. Il existe différentes méthodes de discrétisation, mais pour la plupart de ces méthodes, l’équation de conservation de la masse n’est pas satisfaite exactement. Une alternative consiste alors à introduire comme inconnue supplémentaire la vorticité du fluide, égale au rotationel de la vitesse. On réécrit alors les équations de Navier-Stokes avec trois équations. Le post-doc consiste à étudier d'un point de vue théorique et numérique cette formulation et de proposer un algorithme de résolution efficace, dans le code TrioCFD.
Réduction de dimension et méta-modélisation dans le domaine de la dispersion atmosphérique
La modélisation et la simulation de la dispersion atmosphérique sont indispensables pour s’assurer de l’inocuité des rejets émis dans l’air par le fonctionnement autorisé des installations industrielles et pour estimer les conséquences sanitaires d’accidents qui pourraient affecter ces installations. Depuis une vingtaine d’années, les modèles physiques de la dispersion ont connu des améliorations très notables afin de prendre en compte les détails de la topographie et de l’occupation des sols qui font la complexité des environnements industriels réels. Bien que les modèles 3D aient vu leur utilisation s’accroître, ils présentent des temps de calcul très conséquents, ce qui obère leur emploi dans les études multi-paramétriques et l’évaluation des incertitudes qui nécessitent de très nombreux calculs. Il serait dons souhaitable d’obtenir les résultats très précis des modèles actuels ou des résultats approchants dans des délais bien plus brefs. Récemment, nous avons développé une stratégie consistant à réduire la dimension de cartes de répartition d’un polluant atmosphérique obtenues au moyen d’un modèle physique 3D de référence pour différentes conditions météorologiques, puis à faire apprendre ces cartes par un modèle d’intelligence artificielle (IA) qui est ensuite utilisé pour prévoir des cartes dans d’autres situations de météorologie. Le projet post-doctoral s’attachera à compléter les travaux de recherche entamés en évaluant les performances de méthodes de réduction de dimension et de substitution de modèle déjà explorées et en étudiant d’autres méthodes. Les applications concerneront, en particulier, la simulation des concentrations autour d’un site de production industrielle qui émet des rejets gazeux à l’atmosphère. Les développements viseront à obtenir un outil opérationnel de méta-modélisation.
Méthodes de reconstruction avancées pour la cryo-tomographie électronique appliquée à des échantillons biologiques
La Cryo-tomographie électronique (CET) est une technique puissante pour l'analyse structurelle en 3D d'échantillons biologiques dans leur état quasi naturel. Au cours de la dernière décennie, CET a connu des avancées remarquables en matière d'instrumentation, mais la rétroprojection filtrée (FBP) reste la méthode de reconstruction standard pour CET. En raison des dommages causés par les radiations et de la plage d'inclinaison limitée du microscope, les reconstructions FBP souffrent d'un faible contraste et d'artefacts d'élongation, connus sous le nom d'artefacts de « missing wedge » (MW). Récemment, les approches itératives ont suscité un regain d'intérêt pour améliorer la qualité et donc l'interprétabilité des reconstructions CET.
Dans ce projet, nous proposons d'aller au-delà de l'état de l'art en matière de CET en (1) appliquant des algorithmes de compresse sensing (CS) basés sur les curvelets et les shearlets, et (2) en explorant des approches d'apprentissage profond (DL) dans le but de débruiter et corriger les artefacts liés au MW. Ces approches ont le potentiel d'améliorer la résolution des reconstructions TEC et donc de faciliter les tâches de segmentation.
Le candidat réalisera une étude comparative des algorithmes itératifs utilisés dans les sciences de la vie et des approches CS et DL optimisées dans ce projet pour les structures curvilignes et les contours.
Modélisation du bruit de charge dans les qubits de spin
Grace à de forts partenariats entre plusieurs instituts de recherche, Grenoble est pionnière dans le développement de futurs technologies à base de qubits de spin utilisant des procédés de fabrication identiques à ceux utilisés dans l’industrie de la microélectronique silicium. Le spin d’un qubit est souvent manipulé avec des signaux électriques alternatifs (AC) grâce à divers mécanismes de couplage spin-orbite (SOC) qui le couplent à des champs électriques. Cela le rend également sensible aux fluctuations de l'environnement électrique du qubit, ce qui peut entraîner une grande variabilité de qubit à qubit et du bruit de charge. Le bruit de charge dans les dispositifs à qubits de spin provient potentiellement d'événements de chargement/déchargement au sein des matériaux amorphes et défectueux (SiO2, Si3N4…) et des interfaces des dispositifs. L'objectif de ce postdoc est d'améliorer la compréhension du bruit de charge dans les dispositifs à qubits de spin grâce à des simulations à différentes échelles. Ce travail de recherche se fera à l’aide de méthode de type ab initio et également grâce à l’utilisation du code TB_Sim, développé au sein de l’institut CEA-IRIG. Ce dernier est capable de décrire des structures de qubits très réalistes en utilisant des modèles de liaison forte atomique et multi-bandes k.p.
détection d’événements répétitifs et application à la crise sismique turque de février 2023
La technique de corrélation, ou template matching, appliquée à la détection et l’analyse des événements sismiques a démontré sa performance et son utilité dans la chaîne de traitements du Centre National de Données du CEA/DAM. Malheureusement, cette méthode souffre en contrepartie de limitations qui bride son efficacité et son utilisation dans l’environnement opérationnel, liées d’une part au coût calcul d’un traitement massif des données, et d’autre part au taux de fausses détections que pourrait engendrer un traitement bas niveau. L’utilisation de méthodes de dé-bruitage en amont du traitement (exemple : deepDenoiser, par Zhu et al., 2020), pourrait de surcroît accroître le nombre de détections erronées. La première partie du projet de recherche consiste à fournir une méthodologie visant à améliorer les performances en temps de traitement du détecteur de multiplets, en faisant notamment appel aux techniques d’indexation de l’information élaborées en collaboration avec le LIPADE (méthode L-MESSI, Botao Peng, Panagiota Fatourou, Themis Palpanas. Fast Data Series Indexing for In-Memory Data. International Journal on Very Large Data Bases (VLDBJ) 2021). La seconde partie du projet porte sur le développement d’un outil de « filtrage » des fausses détections de type auto-encodeur construit par apprentissage statistique. La crise sismique Syrie-Turquie de février 2023, dominée par deux séismes de magnitude supérieure à 7,0, servira de base de données d’apprentissage pour cette étude.
Optimisation d’une approche métrologique pour l’identification de radionucléides basée sur le démélange spectral
Le Laboratoire national Henri Becquerel (LNE-LNHB) situé au CEA/Saclay est le laboratoire responsable des références françaises dans le domaine des rayonnements ionisants. Depuis quelques années, il est impliqué dans le développement d’un outil d’analyse automatique des spectres gamma à faible statistique fondé sur la technique du démélange spectral. Cette approche permet notamment de répondre aux contraintes métrologiques telles que la robustesse de la prise de décision et l’estimation non biaisée des comptages associés aux radionucléides identifiés. Pour étendre cette technique à la mesure de terrain et en particulier à la déformation des spectres due aux interactions dans l’environnement d’une source radioactive, un modèle hybride de démélange spectral combinant des méthodes d’apprentissages statistique et automatique est en cours de développement. Cette solution mathématique a pour but l’implémentation d’une estimation conjointe des spectres mesurés et des comptages associés aux radionucléides identifiés. L’étape suivante sera la quantification des incertitudes des grandeurs estimées à partir du modèle hybride. L’objectif est également d’investiguer la technique du démélange spectral dans le cas de la détection des neutrons avec un détecteur NaIL. Le futur candidat contribuera à ces différentes études dans le cadre d’une collaboration avec le Laboratoire d’ingénierie logicielle pour les applications scientifiques (CEA/DRF).
Développement d'Algorithmes pour la Détection et la Quantification de Biomarqueurs à partir de Voltammogrammes
L'objectif du post-doctorat est de développer une solution algorithmique et logicielle performante permettant la détection et la quantification des biomarqueurs d'intérêt à partir de voltammogrammes. Ces voltammogrammes sont des signaux unidimensionnels issus de capteurs électrochimiques innovants. L'étude sera réalisée en étroite collaboration avec un autre laboratoire du CEA-LIST, le LIST/DIN/SIMRI/LCIM, qui proposera des capteurs électrochimiques dédiés et novateurs, ainsi qu'avec la start-up USENSE, qui développe un dispositif médical permettant la mesure de plusieurs biomarqueurs dans l'urine.
Effets des tremblements de terre sur les installations souterraines
Le Centre industriel de stockage géologique (Cigéo) est un projet de centre de stockage géologique profond de déchets radioactifs à construire en France. Ces déchets seront placés dans des colis scellés dans des tunnels conçus à 500 mètres de profondeur. Les scellements sont constitués d'un mélange de bentonite et de sable qui présente une forte capacité de gonflement et une faible perméabilité à l'eau. Dans le cadre de la démonstration de la sûreté à long terme du dépôt, il doit être démontré que les structures de scellement peuvent remplir leurs fonctions sous chargements sismiques pendant toute leur durée de vie. Afin de garantir ce futur dépôt de déchets nucléaires, le CEA et l'Andra collaborent pour travailler sur les potentiels défis scientifiques et techniques.
La réponse des scellements souterrains aux séismes est complexe en raison de l'évolution spatiale et temporelle des propriétés hydromécaniques des milieux environnants et de la structure elle-même. Une modélisation précise du comportement nécessite donc un code numérique multiphysique couplé pour modéliser efficacement les réponses sismiques de ces structures souterraines pendant leur durée de vie estimée à 100 000 ans.
La recherche proposera donc une évaluation des performances de la modélisation numérique séquentielle et parallèle par éléments finis pour l'analyse sismique des installations souterraines profondes. Ensuite, elle effectuera un échantillonnage de données synthétiques pour tenir compte des incertitudes liées aux matériaux et, sur la base des résultats obtenus lors de l'évaluation précédente, elle effectuera une analyse de sensibilité en utilisant une méthode FEM ou un processus de métamodélisation. Enfin, les résultats et les connaissances acquises dans le cadre de ce projet seront traités et interprétés afin de fournir des réponses aux besoins industriels.