Conception et Optimisation d'un Procédé Innovant pour la Capture du CO2
Dans une enquête réalisée en 2023 par la BEI, deux tiers des jeunes français ont affirmé que l’impact climatique des émissions de leur potentiel futur employeur est un facteur important au moment de choisir un emploi. Mais pourquoi s’arrêter là quand vous pouvez choisir de travailler activement pour la réduction de ces émissions, tout dans le cadre d’un sujet de recherche riche et passionnant ? Au Laboratoire de Simulation de Procédés et analyse de Systèmes, nous proposons une thèse qui vise à concevoir et ensuite à optimiser un procédé pour la capture du CO2 dans les rejets gazeux des industries. Son principe de fonctionnement dérive du procédé « Benfield » pour la capture du CO2. Nous proposons des conditions opératoires optimisées pour lesquels le procédé Benfield serait plus performant. Le deuxième axe d’innovation consiste dans une étude de couplage thermique avec une installation industrielle disposant de la chaleur à céder.
La recherche sera menée en collaboration avec le CEA de Saclay et le Laboratoire de Génie Chimique (LGC) à Toulouse. Dans un premier temps, le thésard va réaliser des travaux de simulation numérique à l’aide d’un logiciel de simulation de procédé (ProSIM). Ensuite, il pourra explorer et proposer différentes solutions pour minimiser le besoin énergétique du procédé. Les schémas de procédé obtenus pourront être validés expérimentalement au LGC, où le thésard sera encadré par des experts en procédé de transfert liquide-gaz. Il sera responsable de mettre en place un montage expérimental à l’échelle pilote pour acquérir des données sur les étapes d’absorption et désorption en colonne, avec un garnissage de structure innovante conçu par la fabrication additive. Il conduira lui-même les manips et pourrait éventuellement encadrer un stagiaire pour le support aux acquisitions expérimentales.
Si vous êtes passionné du Génie de Procédés et que vous cherchez un sujet de thèse stimulant et de grand impact pour la société, postulez et intégrez nos équipes !
Optimisation topologique des performances optiques de µLED
Les performances des micro-LEDs (µLEDs) sont fondamentales pour les micro-écrans, un domaine d’excellence du laboratoire LITE au CEA-LETI. Cependant, simuler ces composants est complexe et coûteux en calculs, en raison de la nature incohérente des sources lumineuses et des géométries impliquées. Cela limite la possibilité d’explorer efficacement des espaces de conception multi-paramètres.
Cette thèse propose de développer une méthode innovante basée sur les éléments finis pour accélérer les simulations tout en rendant possible l’utilisation de l’optimisation topologique sur ces sources incohérentes. L’objectif est de produire des designs non intuitifs maximisant les performances tout en respectant les contraintes industrielles.
Le travail se divise en trois phases :
- Développer une méthode de simulation rapide et fiable, en intégrant des approximations physiques adaptées aux sources incohérentes et en réduisant les temps de calcul d’un facteur significatif.
- Concevoir un cadre d’optimisation topologique robuste, intégrant des contraintes de fabricabilité, pour générer des designs immédiatement réalisables.
- Réaliser un prototype à base de "composants sur étagère" du laboratoire qui consiste en une gravure de motifs complexes sur une couche de diélectrique au dessus d'une µLED. Cette partie est sujette à l'intégration de la thèse dans les projets axés "Métasurfaces" du laboratoire afin de profiter d'un financement type IPCEI ou projet européen. Cette partie est optionnelle dans le projet de thèse, à moduler selon opportunités de financement d'un tel prototype.
Les résultats attendus incluent des designs optimisés pour micro-écrans offrant des performances accrues et une méthodologie généralisable à d'autres dispositifs photoniques. Les efforts consentis à développer une telle méthodologie pourront bénéficier à d'autres laboratoires du DOPT, travaillant eux aussi sur les métasurfaces.
Modélisation et caractérisation des transistors CFET pour l’amélioration des performances électriques
Les transistors CFET (Complementary Field Effect Transistors) représentent une nouvelle génération de dispositifs CMOS empilés verticalement, offrant un fort potentiel pour poursuivre la miniaturisation des circuits intégrés et répondre aux exigences du calcul haute performance.
L’objectif de cette thèse est d’étudier et d’optimiser la mise en contrainte du canal de conduction afin d’accroître la mobilité des porteurs et d’améliorer les performances électriques des CFET. Le travail portera à la fois sur la modélisation numérique des procédés technologiques, réalisée par éléments finis, et sur la caractérisation expérimentale des déformations cristallines à l’aide de la microscopie électronique en transmission couplée à la diffraction électronique précessionnée (TEM-PED).
La partie modélisation visera à prédire les distributions de contraintes et leur impact sur les propriétés électriques, en intégrant la complexité des empilements technologiques et des étapes critiques du procédé, telles que l’épitaxie. En parallèle, la caractérisation par TEM-PED permettra de mesurer les champs de déformation et de confronter les simulations aux observations expérimentales.
L’ensemble du travail consistera à développer des outils de modélisation et des méthodologies de caractérisation adaptés à ces structures avancées, afin d’améliorer la précision spatiale, la reproductibilité et la compréhension des mécanismes de contrainte au cœur des transistors CFET.
Développement d’algorithmes de Machine Learning pour l’amélioration de l’acquisition et du traitement des images en imagerie radiologique
Le Laboratoire de Mesures Nucléaires du LNPA ( Laboratoire d'étude des technologies du Numérique et des Procédés Avancés) de Marcoule est constitué d’une équipe spécialisée dans les mesures nucléaires de terrain. Ses activités sont réparties entre le développement de système de mesures et l'expertise technique auprès d'installations du CEA ou de partenaires externes (ORANO, EDF, AIEA).
Le LNPA développe et utilise des imageurs radiologiques (gamma et alpha) depuis plusieurs années. Certains des développements réalisés ont donnés lieu à des produits industriels et d’autres imageurs sont toujours en cours de développement et d’amélioration. L’imagerie alpha, en particulier, est un procédé qui permet de déceler des zones de contamination alpha à distance. La localisation du terme source alpha est une étape importante en boîte à gants que ce soit pour un projet d’assainissement et de démantèlement, pour la maintenance en exploitation ou pour la radioprotection des travailleurs. L’alpha caméra est l’outil qui rend accessible la cartographie alpha à distance et depuis l’extérieur des boîtes à gants.
L'objectif de la thèse est de développer et mettre en place des solutions mathématiques de prédiction et de débruitage pour améliorer l'acquisition et le post-traitement d'images radiologiques, et, en particulier, d'images alpha caméra.
Deux axes de recherche principaux seront approfondis :
- Le développement d'algorithme de débruitage d'image en temps réel ou en post-traitement
- Le développement d'algorithme prédictif pour générer des images à statistique élevées sur la base d'échantillons d'images réelles.
Pour ce faire une base de données expérimentale et par simulation sera à établir afin d'alimenter les algorithmes IA.
Ces deux axes de recherche seront concrétisés par la réalisation d’un prototype d’imageur intégrant les fonctionnalités de Machine Learning, une interface d’acquisition et de traitement d’image, qui sera utilisé lors d’une mise en œuvre expérimentale.
A travers cette thèse l’étudiant se forgera de solides connaissances en mesures nucléaires, interaction rayonnement/ matière, traitement d’images scientifiques et aura une vision précise des besoins radiologiques dans le cadre des chantiers d’assainissement / démantèlement.
Méthodes pour la détection rapide d’évènements gravitationnels à partir des données LISA
La thèse porte sur le développement de méthodes d’analyse rapide pour la détection et la caractérisation des ondes gravitationnelles, en particulier dans le cadre de la future mission spatiale LISA (Laser Interferometer Space Antenna) prévue par l’ESA vers 2035.L’analyse des données fait intervenir différentes étapes dont l’une des premières est le « pipeline » d’analyse rapide, dont le rôle est la détection de nouveaux évènements, ainsi que la caractérisation d’évènements. Le dernier point a trait à l’estimation rapide de la position dans le ciel de la source d’émission d’ondes gravitationnelles, et de leur temps caractéristique tel que le temps de coalescence pour une fusion de trous noirs par exemple. Ces outils d'analyse forment le pipeline d'analyse à faible latence (low-latency pipeline). Au-delà de l’intérêt pour LISA, celui-ci joue également un rôle primordial pour le suivi rapide des évènements détectés par des observations électromagnétiques (observatoires au sol ou spatiaux, des ondes radio aux rayons gamma). Si des méthodes d’analyse rapides ont été développées pour les interféromètres au sol, le cas des interféromètres spatiaux tels que LISA reste un champ à explorer. Ainsi, un traitement adapté des données devra prendre en compte le mode de transmission des données par paquet, nécessitant ainsi la détection d’évènements à partir de données incomplètes. À partir de données entachées d’artefacts tels que des glitches, ces méthodes devront permettre la détection, la discrimination et l’analyse de sources diverses
Dans cette thèse, nous proposons de développer une méthode robuste et performante pour la détection précoce de binaires de trous noirs massifs (MBHBs). Cette méthode devra permettre la prise en compte du flux de données tel qu’attendu dans le cadre de LISA, traité de potentiels artefacts (e.g. bruit non-stationnaire et glitches). Elle permettra la production d’alarmes, incluant un indice de confiance de la détection ainsi qu’une première estimation des paramètres de la source (temps de coalescence, position dans le ciel et masse de la binaire) ; une première estimation rapide est essentielle pour initialiser au mieux une estimation plus précise mais plus couteuse de l’estimation de paramètres.
Navigation Multicritères d’un Agent Mobile appliquée à la robotique d’investigation nucléaire
Dans les environnements dangereux ou inaccessibles à l’homme, la robotique mobile joue un rôle essentiel pour assurer l’inspection, l’intervention et la collecte de données. Cependant, naviguer dans ces milieux complexes ne consiste pas seulement à éviter les obstacles : les robots doivent aussi composer avec des zones sans réseau, des sources de contamination, des contraintes énergétiques et des cartes incomplètes. Une première thèse (2023-2026) a introduit une méthodologie de navigation multicritères fondée sur la superposition cartographique et l’agrégation pondérée de contraintes, démontrant la faisabilité d’une planification adaptée en environnement statique simulé.
La thèse proposée visera à étendre cette approche aux environnements dynamiques et partiellement inconnus, nécessitant une prise de décision adaptative en temps réel. Le travail s’appuiera sur des outils de robotique mobile, de fusion de données et d’intelligence décisionnelle, ainsi que sur des moyens expérimentaux permettant des validations réalistes. L’objectif est de rapprocher la navigation robotique des conditions réelles rencontrées dans les chantiers de démantèlement nucléaire, et plus largement dans tous les environnements industriels à risque. Cette thèse offrira au doctorant(e) un environnement de recherche actif, des collaborations pluridisciplinaires et des perspectives solides dans les domaines de la robotique autonome et de la sûreté d’intervention.
Génération assistée de noyaux de calculs complexes en mécanique du solide
Les lois de comportement utilisées dans les simulations numériques décrivent les caractéristiques physiques des matériaux simulés. À mesure que notre compréhension de ces matériaux évolue, la complexité de ces lois augmente.L'intégration de ces lois constitue une étape critique pour la performance et la robustesse des calculs scientifiques. De ce fait, cette étape peut conduire à des développements intrusifs et complexes dans le code.
De nombreuses plateformes numériques telles que FEniCS, FireDrake, FreeFEM, Comsol, proposent des techniques de génération de code à la volée (JIT, pour Just In Time) pour gérer différentes physiques. Cette approche JIT réduit considérablement les temps de mise en oeuvre de nouvelles simulations, offrant ainsi une grande versatilité à l'utilisateur. De plus, elle permet une optimisation spécifique aux cas traités et facilite le portage sur diverses architectures (CPU ou GPU). Enfin, cette approche permet de masquer les détails d'implémentation: une évolution de ces derniers est invisible pour l'utilisateur et est absorbée par la couche de génération de code.
Cependant, ces techniques sont généralement limitées aux étapes d'assemblage des systèmes linéaires à résoudre et n'incluent pas l'étape cruciale d'intégration des lois de comportement.
S'inspirant de l'expérience réussie du projet open-source mgis.fenics [1], cette thèse vise à développer une solution de génération de code à la volée dédiée au code de mécanique des structures de nouvelle génération Manta [2] développé par le CEA. L'objectif est de permettre un couplage fort avec les lois de comportement générées par MFront [3], améliorant ainsi la flexibilité, les performances et la robustesse des simulations numériques.
Le doctorant recherché devra posséder une solide culture numérique et un goût prononcé pour la simulation numérique et la programmation en C++. Il devra faire preuve d’autonomie et être force de proposition. Le doctorant bénéficiera d'un encadrement de la part des développeurs des codes MFront et Manta (CEA), ainsi que des développeurs du code A-Set (collaboration entre Mines-Paris Tech, Onera, et Safran). Cette collaboration au sein d'une équipe multidisciplinaire offrira un environnement stimulant et enrichissant pour le candidat.
De plus, le travail de thèse sera valorisé par la possibilité de participer à des conférences et de publier des articles dans des revues scientifiques à comité de lecture, offrant une visibilité nationale et internationale aux résultats de la thèse.
Le doctorat se déroulera au CEA Cadarache, dans le sud est de la France, au sein du département d'études des combustibles nucléaires de l'Institut REcherche sur les Systèmes Nucléaires pour la production d'Energie bas carbone (IRESNE) [4]. Le laboratoire d'accueil est le LMPC dont le rôle est de contribuer au développement des composants physiques de la plateforme numérique PLEIADES [5], co-développée par le CEA et EDF.
[1] https://thelfer.github.io/mgis/web/mgis_fenics.html
[2] MANTA : un code HPC généraliste pour la simulation de problèmes complexes en mécanique. https://hal.science/hal-03688160
[3] https://thelfer.github.io/tfel/web/index.html
[4] https://www.cea.fr/energies/iresne/Pages/Accueil.aspx
[5] PLEIADES: A numerical framework dedicated to the multiphysics and multiscale nuclear fuel behavior simulation https://www.sciencedirect.com/science/article/pii/S0306454924002408
Développement d’algorithmes de trajectographie basés sur l’apprentissage automatique pour le détecteur Upstream Pixel de LHCb au LHC
Cette thèse vise à développer et optimiser les futures performances de trajectographie de l’expérience LHCb au Grand collisionneur de hadrons (LHC) grâce à l’exploration d’algorithmes avancés d’apprentissage automatique. Le nouveau sous-détecteur Upstream Pixel (UP), situé avant le champ magnétique, jouera un rôle central à partir du Run 5 pour réduire précocement le taux de fausses traces et améliorer la reconstruction rapide des trajectoires dans des environnements à forte multiplicité.
Afin de mener avec succès les programmes de physique ambitieux de LHCb — étude des désintégrations rares, violation de CP dans le Modèle Standard, caractérisation du plasma de quarks et de gluons dans les collisions d’ions lourds — une trajectographie rapide et extrêmement précise est indispensable. Cependant, l’augmentation des taux de données et de la complexité des événements attendue pour les futures prises de données impose de dépasser les méthodes classiques, en particulier dans les collisions noyau-noyau où des milliers de particules chargées sont produites simultanément.
Dans ce contexte, nous étudierons une gamme de techniques modernes d’apprentissage automatique, dont certaines ont déjà fait leurs preuves pour la trajectographie dans le détecteur VELO de LHCb. En particulier, les Réseaux de Neurones à Graphes (Graph Neural Networks, GNN) constituent une solution prometteuse permettant d’exploiter les corrélations géométriques entre impacts pour améliorer l’efficacité de reconstruction tout en réduisant les faux positifs.
Le travail de thèse comprendra dans un premier temps le développement d’une simulation GEANT4 réaliste du détecteur UP afin de produire des jeux de données adaptés à l’apprentissage machine. Dans un second temps, les modèles les plus performants seront optimisés pour une exécution en temps réel sur GPU, en accord avec l’évolution du système de reconstruction Allen de LHCb. Ils seront ensuite intégrés et validés dans le framework logiciel de l’expérience, avec à la clé une contribution majeure à la performance de LHCb pour le Run 5 et les phases ultérieures du programme expérimental.
Inférence cosmologique à partir de l'abondance des amas de galaxies détectés par cisaillement gravitationnel sur les données de la mission Euclid
Les amas de galaxies qui se forment à l’intersection des filaments de matière, sont de très bons traceurs de la distribution de matière de l’Univers et sont une précieuse source d’information pour la Cosmologie.
La sensibilité de la mission spatiale Euclid lancée en 2023 permet une détection aveugle des amas de galaxies à partir des effets de lentille gravitationnelle faibles i.e. étroitement liés à la masse totale projetée. Ce point combiné avec la taille du relevé grand champ (14 000 deg2) devrait permettre de construire un catalogue d’amas de galaxies unique de par sa taille et ses caractéristiques de sélection. Contrairement aux catalogues d’amas de galaxies construits jusqu’à maintenant qui sont détectés par leur contenu baryonique (e.g. via le contenu en gas de l’amas en X ou via l’effet Sunyaev-Zeldovich aux longueurs d’ondes millimétriques ou encore via les emissions dans le visible des galaxies), le catalogue d’amas détectés à partir du cisaillement gravitationnel est directement lié à la masse totale des amas et de ce fait vraiment représentatif de la vraie population d’amas de galaxies ce qui est un atout pour les études sur les amas de galaxies et la cosmologie.
Dans ce cadre, nous avons mis au point une méthode multi-échelle conçue pour détecter des amas de galaxies en s'appuyant uniquement sur leurs effets de lentille gravitationnelle faibles. Cette méthode a été pré-sélectionnée pour produire le catalogue d’amas de galaxies à partir des données de cisaillement de la mission Euclid.
Le projet de thèse a pour but de construire et de caractériser ce catalogue d’amas de galaxies à partir des données collectées lors de la première année d’observation de la mission Euclid (DR1) en s’appuyant sur cette méthode de detection. Le ou la candidat(e) dérivera ensuite des contraintes cosmologiques à partir de la modélisation de l’abondance des amas, en utilisant l’approche Bayésienne classique. Il explorera également l’apport des méthodes d’apprentissage de type SBI (Simulation-Based Inference) pour l’inférence cosmologique.