TOMOGLASS: Tomographie gamma d’émission appliquée à la caractérisation radiologique du reliquat de verre du procédé de vitrification en creuset froid

Le projet TOMOGLASS vise à développer un système de tomographie gamma innovant, capable de fonctionner en environnement de haute activité, pour caractériser en trois dimensions les reliquats de verre issus du procédé de vitrification des déchets nucléaires. L’objectif est de localiser précisément les inclusions de platinoïdes faiblement solubles dans le verre afin d’améliorer la compréhension et le pilotage du procédé. Le système repose sur un imageur gamma compact, intégrant des détecteurs CZT pixellisés à haute résolution, collimaté de type sténopé, et monté sur un bras robotisé. Il permettra une reconstruction multi-isotopique à partir d’algorithmes tomographiques avancés. Ce projet s’inscrit dans la dynamique de modernisation des installations de La Hague et dans la démarche d’intégration des technologies numériques au sein de l’usine du futur.

La première phase du projet consistera à démontrer la faisabilité de la mise en œuvre d’un prototype de spectro-imageur en environnement contraint, en s’appuyant sur des briques technologiques existantes : modules de détection et électronique d’acquisition basés sur la technologie HiSPECT et algorithmes de reconstruction d’images développés au CEA-Leti. Le travail portera sur la réalisation d’une étude multiparamétrique par simulation numérique (code de calcul Monte Carlo), destinée à dimensionner un dispositif de mesure optimisé, puis à générer des jeux de données simulés pour différentes configurations de mesure représentatives. Une fois le concept validé, les travaux se poursuivront en année N+1 avec l’assemblage des composants du prototype et son intégration sur un bras robotisé. Des essais expérimentaux pourront alors être envisagés, en vue d’une démonstration en environnement représentatif.

Outils et méthodes de diagnostic pour la réutilisation des composants électroniques

Le Laboratoire Autonomie et Intégration de Capteurs (LAIC) du CEA-Leti a pour mission principale le développement de systèmes de capteurs pour la digitalisation des systèmes. Les activités de l’équipe sont à l’interface du hardware (électronique, optronique, semi-conducteurs), du software (intelligence artificielle, traitement du signal) et du système (architecture électronique, mécatronique, modélisations multiphysiques).

Dans un contexte de croissance exponentielle de l'électronique et de raréfaction des ressources, la réutilisation de composants électroniques issus de systèmes en fin de vie représente une voie prometteuse pour limiter l'impact environnemental et soutenir le développement d'une économie circulaire. L'objectif de ce projet est de développer une méthodologie de diagnostic avancé permettant d'évaluer l'état de santé de composants électroniques, notamment de puissance, afin de les réintégrer dans un cycle de seconde vie moins contraignant.

Le ou la post-doctorant(e) aura pour mission de développer une approche complète pour évaluer le potentiel de réutilisation de composants électroniques, en vue de les réintroduire dans des cycles de seconde vie. Cela comprendra :

- L’identification d’indicateurs de santé pertinents pour suivre l’évolution des performances de composants (ex. : MOSFET, IGBT, condensateurs, etc.) ;
- La mise en place de bancs de test et de capteurs adaptés à la mesure de paramètres électriques, thermiques ou mécaniques, dans le but de détecter les signes de vieillissement ;
- L’analyse des modes de dégradation à travers des essais expérimentaux et des modèles de défaillance ;
- Le développement d’algorithmes de prédiction de la durée de vie résiduelle (Remaining Useful Life – RUL), adaptés à différents scénarios d’usage ;
- La contribution aux publications scientifiques, à la valorisation des résultats, et à la collaboration avec les partenaires du projet.

Modélisation de la sédimentation et de la coalescence des gouttes dans les mélangeurs-décanteurs pour l’extraction liquide–liquid

La transition énergétique vers des technologies bas carbone (batteries Li-ion, photovoltaïque, éolien) dépend de matériaux critiques comme les terres rares (Dy, Nd, Pr) et certains métaux (Co, Ni, Li). Leur extraction pose des problèmes environnementaux, et leur recyclage reste limité du fait de leur faible concentration dans des déchets complexes, rendant leur séparation difficile. L’extraction liquide-liquide s’impose comme une méthode efficace pour purifier ces mélanges, mais son industrialisation est freinée par une compréhension partielle des phénomènes physico-chimiques impliqués, notamment dans les mélangeurs-décanteurs. Ces équipements, alliant chambre de mélange et zone de décantation, sont prisés pour leur compacité et leur rendement énergétique. Toutefois, les modèles actuels restent semi-empiriques, centrés sur la phase de mélange, et donc insuffisants pour prédire le comportement à grande échelle. Dans ce contexte, le programme national PEPR « Recyclabilité et réutilisation des matériaux » soutient une initiative du CEA visant à développer un jumeau numérique de ces dispositifs. Le postdoctorat proposé s’intègre à ce projet et porte sur la modélisation du décanteur. Le candidat mènera des expériences sur des émulsions bien caractérisées, injectées dans une maquette dédiée pour étudier leur sédimentation et l’évolution de la taille des gouttes. Ces données expérimentales serviront à valider un modèle décrivant le transport gravitaire et hydrodynamique des gouttelettes, ainsi que les phénomènes de coalescence et de rupture. Ce modèle sera ensuite couplé à celui de la chambre de mélange déjà en cours de développement, en vue d’obtenir un premier jumeau numérique.

VALERIAN: simulation du transport d'électrons pour les modules les modules ITkPix d'ATLAS

Une description précise du transport des électrons et des photons dans la matière est cruciale dans plusieurs domaines phares du CEA, notamment la radioprotection et l’instrumentation nucléaire. Leur validation nécessite des études paramétriques dédiées et des mesures. Étant donné le peu de données expérimentales publiques, des comparaisons entre codes de calcul sont aussi utilisées. L’enjeu pour les années à venir est une qualification de ces codes dans un large domaine d'énergie, certains écarts entre leurs résultats ayant été identifiés lors d’études préliminaires du SERMA faisant intervenir le transport couplé de neutrons, photons et électrons. Le projet VALERIAN consiste à saisir l’opportunité créée par une campagne de prise de données unique en son genre prévue en 2025-2026 à l’IRFU (DRF) pour mieux caractériser ces écarts. En effet, l’IRFU s’est engagé à contrôler au moins 750 modules à pixels pour le nouveau trajectographe de l’expérience ATLAS, dans le cadre de la jouvence des grands détecteurs du CERN. De nombreuses mesures avec des sources bêta seront réalisées en 2025-2026 pour la qualification de ces modules.

Étude de la formulation Vitesse-Vorticité-Pression pour discrétiser les équations de Navier-Stokes.

Les équations de Navier-Stokes incompressibles sont parmi les modèles les plus
utilisés pour décrire les écoulements d’un fluide newtonien (c’est-à-dire un fluide dont la viscosité est indépendante des forces extérieures appliquée au fluide). Ces équations modélisent le champ de vitesse et le champ de pression du fluide. La première des deux équations n’est autre que la loi de Newton, tandis que la seconde découle de la conservation de la masse dans le cas d’un fluide incompressible (la divergence de la vitesse est nulle). L’approximation numérique de ces équations est un véritable défi en raison de leur caractère tridimensionnel et instationnaire, de la contrainte de divergence nulle et enfin de la non-linéarité du terme de convection. Il existe différentes méthodes de discrétisation, mais pour la plupart de ces méthodes, l’équation de conservation de la masse n’est pas satisfaite exactement. Une alternative consiste alors à introduire comme inconnue supplémentaire la vorticité du fluide, égale au rotationel de la vitesse. On réécrit alors les équations de Navier-Stokes avec trois équations. Le post-doc consiste à étudier d'un point de vue théorique et numérique cette formulation et de proposer un algorithme de résolution efficace, dans le code TrioCFD.

Réduction de dimension et méta-modélisation dans le domaine de la dispersion atmosphérique

La modélisation et la simulation de la dispersion atmosphérique sont indispensables pour s’assurer de l’inocuité des rejets émis dans l’air par le fonctionnement autorisé des installations industrielles et pour estimer les conséquences sanitaires d’accidents qui pourraient affecter ces installations. Depuis une vingtaine d’années, les modèles physiques de la dispersion ont connu des améliorations très notables afin de prendre en compte les détails de la topographie et de l’occupation des sols qui font la complexité des environnements industriels réels. Bien que les modèles 3D aient vu leur utilisation s’accroître, ils présentent des temps de calcul très conséquents, ce qui obère leur emploi dans les études multi-paramétriques et l’évaluation des incertitudes qui nécessitent de très nombreux calculs. Il serait dons souhaitable d’obtenir les résultats très précis des modèles actuels ou des résultats approchants dans des délais bien plus brefs. Récemment, nous avons développé une stratégie consistant à réduire la dimension de cartes de répartition d’un polluant atmosphérique obtenues au moyen d’un modèle physique 3D de référence pour différentes conditions météorologiques, puis à faire apprendre ces cartes par un modèle d’intelligence artificielle (IA) qui est ensuite utilisé pour prévoir des cartes dans d’autres situations de météorologie. Le projet post-doctoral s’attachera à compléter les travaux de recherche entamés en évaluant les performances de méthodes de réduction de dimension et de substitution de modèle déjà explorées et en étudiant d’autres méthodes. Les applications concerneront, en particulier, la simulation des concentrations autour d’un site de production industrielle qui émet des rejets gazeux à l’atmosphère. Les développements viseront à obtenir un outil opérationnel de méta-modélisation.

Méthodes de reconstruction avancées pour la cryo-tomographie électronique appliquée à des échantillons biologiques

La Cryo-tomographie électronique (CET) est une technique puissante pour l'analyse structurelle en 3D d'échantillons biologiques dans leur état quasi naturel. Au cours de la dernière décennie, CET a connu des avancées remarquables en matière d'instrumentation, mais la rétroprojection filtrée (FBP) reste la méthode de reconstruction standard pour CET. En raison des dommages causés par les radiations et de la plage d'inclinaison limitée du microscope, les reconstructions FBP souffrent d'un faible contraste et d'artefacts d'élongation, connus sous le nom d'artefacts de « missing wedge » (MW). Récemment, les approches itératives ont suscité un regain d'intérêt pour améliorer la qualité et donc l'interprétabilité des reconstructions CET.
Dans ce projet, nous proposons d'aller au-delà de l'état de l'art en matière de CET en (1) appliquant des algorithmes de compresse sensing (CS) basés sur les curvelets et les shearlets, et (2) en explorant des approches d'apprentissage profond (DL) dans le but de débruiter et corriger les artefacts liés au MW. Ces approches ont le potentiel d'améliorer la résolution des reconstructions TEC et donc de faciliter les tâches de segmentation.
Le candidat réalisera une étude comparative des algorithmes itératifs utilisés dans les sciences de la vie et des approches CS et DL optimisées dans ce projet pour les structures curvilignes et les contours.

Modélisation du bruit de charge dans les qubits de spin

Grace à de forts partenariats entre plusieurs instituts de recherche, Grenoble est pionnière dans le développement de futurs technologies à base de qubits de spin utilisant des procédés de fabrication identiques à ceux utilisés dans l’industrie de la microélectronique silicium. Le spin d’un qubit est souvent manipulé avec des signaux électriques alternatifs (AC) grâce à divers mécanismes de couplage spin-orbite (SOC) qui le couplent à des champs électriques. Cela le rend également sensible aux fluctuations de l'environnement électrique du qubit, ce qui peut entraîner une grande variabilité de qubit à qubit et du bruit de charge. Le bruit de charge dans les dispositifs à qubits de spin provient potentiellement d'événements de chargement/déchargement au sein des matériaux amorphes et défectueux (SiO2, Si3N4…) et des interfaces des dispositifs. L'objectif de ce postdoc est d'améliorer la compréhension du bruit de charge dans les dispositifs à qubits de spin grâce à des simulations à différentes échelles. Ce travail de recherche se fera à l’aide de méthode de type ab initio et également grâce à l’utilisation du code TB_Sim, développé au sein de l’institut CEA-IRIG. Ce dernier est capable de décrire des structures de qubits très réalistes en utilisant des modèles de liaison forte atomique et multi-bandes k.p.

détection d’événements répétitifs et application à la crise sismique turque de février 2023

La technique de corrélation, ou template matching, appliquée à la détection et l’analyse des événements sismiques a démontré sa performance et son utilité dans la chaîne de traitements du Centre National de Données du CEA/DAM. Malheureusement, cette méthode souffre en contrepartie de limitations qui bride son efficacité et son utilisation dans l’environnement opérationnel, liées d’une part au coût calcul d’un traitement massif des données, et d’autre part au taux de fausses détections que pourrait engendrer un traitement bas niveau. L’utilisation de méthodes de dé-bruitage en amont du traitement (exemple : deepDenoiser, par Zhu et al., 2020), pourrait de surcroît accroître le nombre de détections erronées. La première partie du projet de recherche consiste à fournir une méthodologie visant à améliorer les performances en temps de traitement du détecteur de multiplets, en faisant notamment appel aux techniques d’indexation de l’information élaborées en collaboration avec le LIPADE (méthode L-MESSI, Botao Peng, Panagiota Fatourou, Themis Palpanas. Fast Data Series Indexing for In-Memory Data. International Journal on Very Large Data Bases (VLDBJ) 2021). La seconde partie du projet porte sur le développement d’un outil de « filtrage » des fausses détections de type auto-encodeur construit par apprentissage statistique. La crise sismique Syrie-Turquie de février 2023, dominée par deux séismes de magnitude supérieure à 7,0, servira de base de données d’apprentissage pour cette étude.

Optimisation d’une approche métrologique pour l’identification de radionucléides basée sur le démélange spectral

Le Laboratoire national Henri Becquerel (LNE-LNHB) situé au CEA/Saclay est le laboratoire responsable des références françaises dans le domaine des rayonnements ionisants. Depuis quelques années, il est impliqué dans le développement d’un outil d’analyse automatique des spectres gamma à faible statistique fondé sur la technique du démélange spectral. Cette approche permet notamment de répondre aux contraintes métrologiques telles que la robustesse de la prise de décision et l’estimation non biaisée des comptages associés aux radionucléides identifiés. Pour étendre cette technique à la mesure de terrain et en particulier à la déformation des spectres due aux interactions dans l’environnement d’une source radioactive, un modèle hybride de démélange spectral combinant des méthodes d’apprentissages statistique et automatique est en cours de développement. Cette solution mathématique a pour but l’implémentation d’une estimation conjointe des spectres mesurés et des comptages associés aux radionucléides identifiés. L’étape suivante sera la quantification des incertitudes des grandeurs estimées à partir du modèle hybride. L’objectif est également d’investiguer la technique du démélange spectral dans le cas de la détection des neutrons avec un détecteur NaIL. Le futur candidat contribuera à ces différentes études dans le cadre d’une collaboration avec le Laboratoire d’ingénierie logicielle pour les applications scientifiques (CEA/DRF).

Top