Algorithmes robustes de continuation pour la simulation par éléments finis de la fissuration dans des milieux hétérogènes complexes : application aux structures en béton armé

Les procédures de "path-following" (ou de continuation) sont utilisées pour décrire les réponses instables de structures présentant des phénomènes de snap-back ou snap-through. Ces méthodes consistent à adapter la charge externe au cours de la déformation afin de satisfaire une contrainte de pilotage, en introduisant une inconnue supplémentaire, le multiplicateur de charge. Plusieurs variantes existent selon la grandeur pilotée : combinaisons de degrés de liberté, mesures de déformation ou variables liées à la dissipation d’énergie.
En plus du suivi de réponses instables, un intérêt majeur de ces approches réside dans l’amélioration de la convergence des solveurs incrémentaux de type Newton, en réduisant le nombre d’itérations nécessaires. Ce gain compense souvent le coût supplémentaire lié à l’algorithme de continuation. Certaines formulations se sont révélées efficaces et simples à implémenter.
Cependant, aucun critère objectif ne permet encore de choisir la plus adaptée à la simulation de structures en béton armé, où coexistent plusieurs mécanismes de dissipation et une forte variabilité spatiale des propriétés du matériau.
Le travail postdoctoral proposé visera à développer des algorithmes de "path-following" robustes pour ces structures, à partir des recherches antérieures menées au CEA. Il comprendra une analyse critique des formulations existantes, une évaluation de leurs performances (solveurs monolithiques ou partitionnés), puis leur implémentation. Enfin, des cas tests représentatifs de structures industrielles seront simulés afin d’évaluer le gain en robustesse et en coût de calcul par rapport aux solveurs classiques.

Calcul HPC Adapté à la Logique Event-based pour le Transport

La méthode Monte Carlo est employée en physique des réacteurs pour obtenir des distributions de flux dites de référence. Le code TRIPOLI-5, actuellement en cours développement au CEA est une application basée sur cette méthode. Avec l’arrivée des futures machines avec une architecture matérielle accélérée (CPU+GPU) comme la machine exaflopique Alice Recoque, il est essentiel de revoir certains aspects de ces codes pour tirer partie du matériel. Dans le cadre de TRIPOLI-5, des travaux précédents ont permis de
déporter le calcul de l’élargissement Doppler des sections efficaces à la température du matériau sur GPU. Néanmoins, le transport lui-même reste sur CPU.

Dans cette proposition de travaux exploratoires, nous proposons de développer une maquette d’un code Monte Carlo simplifié basé sur du transport sur GPU. Ceci demandera notamment de changer l’algorithme : en effet actuellement, l’algorithme est dit « history-based » où l’on s’intéresse à la vie d’une particule de sa naissance à sa disparition. Afin d’exposer plus de parallélisme, il est opportun d’employer un algorithme « event-based », où l’on s’intéresse à un même type d’évènement dans l’histoire d’un ensemble de particules. Le changement d’algorithme nécessite de reconcevoir un code et disposer d’une maquette est
primordial pour mener des recherches et des expérimentations sur l’architecture informatique.

Le but de ce projet est d’identifier des technologies logicielles utiles pour l’adaptation des codes de transport Monte-Carlo aux machines exaflopique. En particulier, on s’intéresse à l’écosystème de la bibliothèque multi-plateforme Kokkos. On se basera sur les bibliothèques opensource ArborX et Cabana. ArborX fournit des primitives de recherche géométrique optimisées pour GPU et Cabana propose des structures de données adaptées aux systèmes particulaires.

TOMOGLASS: Tomographie gamma d’émission appliquée à la caractérisation radiologique du reliquat de verre du procédé de vitrification en creuset froid

Le projet TOMOGLASS vise à développer un système de tomographie gamma innovant, capable de fonctionner en environnement de haute activité, pour caractériser en trois dimensions les reliquats de verre issus du procédé de vitrification des déchets nucléaires. L’objectif est de localiser précisément les inclusions de platinoïdes faiblement solubles dans le verre afin d’améliorer la compréhension et le pilotage du procédé. Le système repose sur un imageur gamma compact, intégrant des détecteurs CZT pixellisés à haute résolution, collimaté de type sténopé, et monté sur un bras robotisé. Il permettra une reconstruction multi-isotopique à partir d’algorithmes tomographiques avancés. Ce projet s’inscrit dans la dynamique de modernisation des installations de La Hague et dans la démarche d’intégration des technologies numériques au sein de l’usine du futur.

La première phase du projet consistera à démontrer la faisabilité de la mise en œuvre d’un prototype de spectro-imageur en environnement contraint, en s’appuyant sur des briques technologiques existantes : modules de détection et électronique d’acquisition basés sur la technologie HiSPECT et algorithmes de reconstruction d’images développés au CEA-Leti. Le travail portera sur la réalisation d’une étude multiparamétrique par simulation numérique (code de calcul Monte Carlo), destinée à dimensionner un dispositif de mesure optimisé, puis à générer des jeux de données simulés pour différentes configurations de mesure représentatives. Une fois le concept validé, les travaux se poursuivront en année N+1 avec l’assemblage des composants du prototype et son intégration sur un bras robotisé. Des essais expérimentaux pourront alors être envisagés, en vue d’une démonstration en environnement représentatif.

Outils et méthodes de diagnostic pour la réutilisation des composants électroniques

Le Laboratoire Autonomie et Intégration de Capteurs (LAIC) du CEA-Leti a pour mission principale le développement de systèmes de capteurs pour la digitalisation des systèmes. Les activités de l’équipe sont à l’interface du hardware (électronique, optronique, semi-conducteurs), du software (intelligence artificielle, traitement du signal) et du système (architecture électronique, mécatronique, modélisations multiphysiques).

Dans un contexte de croissance exponentielle de l'électronique et de raréfaction des ressources, la réutilisation de composants électroniques issus de systèmes en fin de vie représente une voie prometteuse pour limiter l'impact environnemental et soutenir le développement d'une économie circulaire. L'objectif de ce projet est de développer une méthodologie de diagnostic avancé permettant d'évaluer l'état de santé de composants électroniques, notamment de puissance, afin de les réintégrer dans un cycle de seconde vie moins contraignant.

Le ou la post-doctorant(e) aura pour mission de développer une approche complète pour évaluer le potentiel de réutilisation de composants électroniques, en vue de les réintroduire dans des cycles de seconde vie. Cela comprendra :

- L’identification d’indicateurs de santé pertinents pour suivre l’évolution des performances de composants (ex. : MOSFET, IGBT, condensateurs, etc.) ;
- La mise en place de bancs de test et de capteurs adaptés à la mesure de paramètres électriques, thermiques ou mécaniques, dans le but de détecter les signes de vieillissement ;
- L’analyse des modes de dégradation à travers des essais expérimentaux et des modèles de défaillance ;
- Le développement d’algorithmes de prédiction de la durée de vie résiduelle (Remaining Useful Life – RUL), adaptés à différents scénarios d’usage ;
- La contribution aux publications scientifiques, à la valorisation des résultats, et à la collaboration avec les partenaires du projet.

VALERIAN: simulation du transport d'électrons pour les modules les modules ITkPix d'ATLAS

Une description précise du transport des électrons et des photons dans la matière est cruciale dans plusieurs domaines phares du CEA, notamment la radioprotection et l’instrumentation nucléaire. Leur validation nécessite des études paramétriques dédiées et des mesures. Étant donné le peu de données expérimentales publiques, des comparaisons entre codes de calcul sont aussi utilisées. L’enjeu pour les années à venir est une qualification de ces codes dans un large domaine d'énergie, certains écarts entre leurs résultats ayant été identifiés lors d’études préliminaires du SERMA faisant intervenir le transport couplé de neutrons, photons et électrons. Le projet VALERIAN consiste à saisir l’opportunité créée par une campagne de prise de données unique en son genre prévue en 2025-2026 à l’IRFU (DRF) pour mieux caractériser ces écarts. En effet, l’IRFU s’est engagé à contrôler au moins 750 modules à pixels pour le nouveau trajectographe de l’expérience ATLAS, dans le cadre de la jouvence des grands détecteurs du CERN. De nombreuses mesures avec des sources bêta seront réalisées en 2025-2026 pour la qualification de ces modules.

Étude de la formulation Vitesse-Vorticité-Pression pour discrétiser les équations de Navier-Stokes.

Les équations de Navier-Stokes incompressibles sont parmi les modèles les plus
utilisés pour décrire les écoulements d’un fluide newtonien (c’est-à-dire un fluide dont la viscosité est indépendante des forces extérieures appliquée au fluide). Ces équations modélisent le champ de vitesse et le champ de pression du fluide. La première des deux équations n’est autre que la loi de Newton, tandis que la seconde découle de la conservation de la masse dans le cas d’un fluide incompressible (la divergence de la vitesse est nulle). L’approximation numérique de ces équations est un véritable défi en raison de leur caractère tridimensionnel et instationnaire, de la contrainte de divergence nulle et enfin de la non-linéarité du terme de convection. Il existe différentes méthodes de discrétisation, mais pour la plupart de ces méthodes, l’équation de conservation de la masse n’est pas satisfaite exactement. Une alternative consiste alors à introduire comme inconnue supplémentaire la vorticité du fluide, égale au rotationel de la vitesse. On réécrit alors les équations de Navier-Stokes avec trois équations. Le post-doc consiste à étudier d'un point de vue théorique et numérique cette formulation et de proposer un algorithme de résolution efficace, dans le code TrioCFD.

Méthodes de reconstruction avancées pour la cryo-tomographie électronique appliquée à des échantillons biologiques

La Cryo-tomographie électronique (CET) est une technique puissante pour l'analyse structurelle en 3D d'échantillons biologiques dans leur état quasi naturel. Au cours de la dernière décennie, CET a connu des avancées remarquables en matière d'instrumentation, mais la rétroprojection filtrée (FBP) reste la méthode de reconstruction standard pour CET. En raison des dommages causés par les radiations et de la plage d'inclinaison limitée du microscope, les reconstructions FBP souffrent d'un faible contraste et d'artefacts d'élongation, connus sous le nom d'artefacts de « missing wedge » (MW). Récemment, les approches itératives ont suscité un regain d'intérêt pour améliorer la qualité et donc l'interprétabilité des reconstructions CET.
Dans ce projet, nous proposons d'aller au-delà de l'état de l'art en matière de CET en (1) appliquant des algorithmes de compresse sensing (CS) basés sur les curvelets et les shearlets, et (2) en explorant des approches d'apprentissage profond (DL) dans le but de débruiter et corriger les artefacts liés au MW. Ces approches ont le potentiel d'améliorer la résolution des reconstructions TEC et donc de faciliter les tâches de segmentation.
Le candidat réalisera une étude comparative des algorithmes itératifs utilisés dans les sciences de la vie et des approches CS et DL optimisées dans ce projet pour les structures curvilignes et les contours.

Modélisation du bruit de charge dans les qubits de spin

Grace à de forts partenariats entre plusieurs instituts de recherche, Grenoble est pionnière dans le développement de futurs technologies à base de qubits de spin utilisant des procédés de fabrication identiques à ceux utilisés dans l’industrie de la microélectronique silicium. Le spin d’un qubit est souvent manipulé avec des signaux électriques alternatifs (AC) grâce à divers mécanismes de couplage spin-orbite (SOC) qui le couplent à des champs électriques. Cela le rend également sensible aux fluctuations de l'environnement électrique du qubit, ce qui peut entraîner une grande variabilité de qubit à qubit et du bruit de charge. Le bruit de charge dans les dispositifs à qubits de spin provient potentiellement d'événements de chargement/déchargement au sein des matériaux amorphes et défectueux (SiO2, Si3N4…) et des interfaces des dispositifs. L'objectif de ce postdoc est d'améliorer la compréhension du bruit de charge dans les dispositifs à qubits de spin grâce à des simulations à différentes échelles. Ce travail de recherche se fera à l’aide de méthode de type ab initio et également grâce à l’utilisation du code TB_Sim, développé au sein de l’institut CEA-IRIG. Ce dernier est capable de décrire des structures de qubits très réalistes en utilisant des modèles de liaison forte atomique et multi-bandes k.p.

détection d’événements répétitifs et application à la crise sismique turque de février 2023

La technique de corrélation, ou template matching, appliquée à la détection et l’analyse des événements sismiques a démontré sa performance et son utilité dans la chaîne de traitements du Centre National de Données du CEA/DAM. Malheureusement, cette méthode souffre en contrepartie de limitations qui bride son efficacité et son utilisation dans l’environnement opérationnel, liées d’une part au coût calcul d’un traitement massif des données, et d’autre part au taux de fausses détections que pourrait engendrer un traitement bas niveau. L’utilisation de méthodes de dé-bruitage en amont du traitement (exemple : deepDenoiser, par Zhu et al., 2020), pourrait de surcroît accroître le nombre de détections erronées. La première partie du projet de recherche consiste à fournir une méthodologie visant à améliorer les performances en temps de traitement du détecteur de multiplets, en faisant notamment appel aux techniques d’indexation de l’information élaborées en collaboration avec le LIPADE (méthode L-MESSI, Botao Peng, Panagiota Fatourou, Themis Palpanas. Fast Data Series Indexing for In-Memory Data. International Journal on Very Large Data Bases (VLDBJ) 2021). La seconde partie du projet porte sur le développement d’un outil de « filtrage » des fausses détections de type auto-encodeur construit par apprentissage statistique. La crise sismique Syrie-Turquie de février 2023, dominée par deux séismes de magnitude supérieure à 7,0, servira de base de données d’apprentissage pour cette étude.

Optimisation d’une approche métrologique pour l’identification de radionucléides basée sur le démélange spectral

Le Laboratoire national Henri Becquerel (LNE-LNHB) situé au CEA/Saclay est le laboratoire responsable des références françaises dans le domaine des rayonnements ionisants. Depuis quelques années, il est impliqué dans le développement d’un outil d’analyse automatique des spectres gamma à faible statistique fondé sur la technique du démélange spectral. Cette approche permet notamment de répondre aux contraintes métrologiques telles que la robustesse de la prise de décision et l’estimation non biaisée des comptages associés aux radionucléides identifiés. Pour étendre cette technique à la mesure de terrain et en particulier à la déformation des spectres due aux interactions dans l’environnement d’une source radioactive, un modèle hybride de démélange spectral combinant des méthodes d’apprentissages statistique et automatique est en cours de développement. Cette solution mathématique a pour but l’implémentation d’une estimation conjointe des spectres mesurés et des comptages associés aux radionucléides identifiés. L’étape suivante sera la quantification des incertitudes des grandeurs estimées à partir du modèle hybride. L’objectif est également d’investiguer la technique du démélange spectral dans le cas de la détection des neutrons avec un détecteur NaIL. Le futur candidat contribuera à ces différentes études dans le cadre d’une collaboration avec le Laboratoire d’ingénierie logicielle pour les applications scientifiques (CEA/DRF).

Top