Compréhension des mécanismes de l’hydrogénation par voie directe du CO2 par des catalyseurs (Na,K)FeOx via un couplage théorique-expérimental

Face au dérèglement climatique, la sobriété énergétique pour réduire nos émissions de CO2 s'impose. Une autre solution au problème existe : la capture, le stockage et l'utilisation du CO2, et ce afin de tendre vers une économie circulaire du carbone, et à terme la défossilisation. Dans cette optique, l'hydrogénation par voie directe du CO2 permet de le transformer en molécules d'intérêts tels que les hydrocarbures, via le couplage de la réaction reverse water gas shift (RWGS) et de la synthèse Fischer-Tropsch (FTS).

La catalyse computationnelle operando a récemment émergé comme étant une alternative raisonnée au développement de nouveaux catalyseurs grâce à une approche multi-échelle de l’atome jusqu’à la particule active, afin de modéliser la sélectivité et l’activité du catalyseur. Les nouveaux outils combinant les simulations ab initio (DFT) et la dynamique moléculaire (MD) via des algorithmes de machine learning permettent de faire le lien entre la précision des calculs DFT et la puissance des simulations atomistiques. Les catalyseurs actuels bifonctionnels (car actifs pour la RWGS et la FTS) pour l’hydrogénation par voie directe du CO2 sont à base d’oxydes de fer dopés (promoteurs métalliques).

Ce projet a pour objectif l’étude théorique de catalyseurs de type Na-FeOx et K-FeOx dopés avec du Cu, Mn, Zn et Co, et ce en 4 étapes : les simulations DFT (énergies d’adsorption, densités d’états, barrières d’énergies, états de transition), la modélisation microcinétique (constantes de réaction, TOF), la construction de potentiels interatomiques par couplage DFT/machine learning, la simulation de particules entières (sélectivité, activité, grandeurs microscopiques).

Cette étude théorique ira de pair avec la synthèse et des mesures expérimentales des catalyseurs étudiés, et des catalyseurs optimisés émergeants des résultats computationnels. Toutes les données accumulées (DFT, MD, propriétés catalytiques) pourront alimenter une base de données, qui pourra être exploitée à terme pour faire émerger des descripteurs d’intérêt pour l’hydrogénation du CO2.

Contrôle magnéto-ionique de jonctions tunnel magnétiques pour des applications neuromorphiques

La magnéto-ionique est un domaine émergent qui offre un grand potentiel de réduction de la consommation d'énergie dans les applications de mémoire spintronique grâce au contrôle non-volatile des propriétés magnétiques par l'intermédiaire de tension de grille. En combinant le concept de mouvement ionique contrôlé par tension des technologies memristor, typiquement utilisées dans les applications neuromorphiques, avec la spintronique, ce domaine offre une opportunité unique de créer une nouvelle génération de fonctionnalités neuromorphiques basées sur des dispositifs spintroniques.

Le doctorat sera un projet de recherche expérimentale axé sur la mise en œuvre du contrôle par tension de grille d’effets magnéto-ioniques dans les dispositifs spintroniques à jonction tunnel magnétique. Le but ultime du projet est d'obtenir un contrôle fiable et non volatile de la commutation de l'aimantation dans les jonctions tunnel magnétiques à trois terminaux.
Un défi majeur reste à relever pour l'utilisation de la magnéto-ionique dans des applications pratiques, à savoir son intégration dans les jonctions tunnel magnétiques (MTJ), qui sont les éléments constitutifs des architectures de mémoire magnétique. Cela permettra non seulement de débloquer le contrôle dynamique des champs/courants de commutation dans les jonctions tunnel magnétiques afin de réduire la consommation d'énergie, mais aussi de contrôler la stochasticité, ce qui a des implications importantes dans l'informatique probabiliste.

Vers une meilleure compréhension des protéines membranaires grâce à l’IA

Malgré les avancées spectaculaires de l'intelligence artificielle (IA), notamment avec des outils tels qu’AlphaFold, la prédiction des structures des protéines membranaires demeure un défi majeur en biologie structurale. Ces protéines, qui représentent 30% du protéome et 60% des cibles thérapeutiques, sont encore largement sous-représentées dans la Protein Data Bank (PDB), avec seulement 3% de structures résolues. Cette rareté s’explique par la difficulté à maintenir leur état natif dans un environnement amphiphile, ce qui complique leur étude, notamment avec les techniques structurales classiques.

Ce projet de thèse a pour objectif de lever ces obstacles en combinant les capacités prédictives d'AlphaFold avec des données expérimentales de diffusion aux petits angles (SAXS/SANS), obtenues en condition physiologique. L’étude se concentrera sur la protéine translocatrice TSPO, un marqueur clé en neuro-imagerie de plusieurs pathologies graves (cancers, maladies neurodégénératives) en raison de sa forte affinité pour divers ligands pharmacologiques.

Ce travail s’articulera autour de la prédiction de la structure de TSPO en présence et en absence de ligands, de l’acquisition de données SAXS/SANS du complexe TSPO/amphiphiles et de l’affinement des modèles grâce à des outils de modélisation avancée (MolPlay, Chai-1) et des simulations de dynamique moléculaire. En approfondissant la compréhension de la structure et de la fonction de TSPO, ce projet pourrait conduire à la conception de nouveaux ligands pour le diagnostic et la thérapie.

Conception et fabrication de circuits neuromorphiques basés sur des dispositifs ioniques

Les réseaux de neurones (NN) sont inspirés des processus de calcul et de communication du cerveau afin de résoudre efficacement des tâches telles que l'analyse de données, le traitement adaptatif de signaux en temps réel, et la modélisation de systèmes biologiques. Cependant, les limitations matérielles constituent actuellement le principal obstacle à une adoption à grande échelle. Pour y remédier, un nouveau type d'architecture de circuit appelé "circuit neuromorphique" est en train d’émerger. Ces circuits imitent le comportement des neurones en intégrant un haut degré de parallélisme, une connectivité adaptable et un calcul en mémoire. Les transistors à base d'ions ont été récemment étudiés pour leur potentiel à fonctionner comme neurones et synapses artificiels. Bien que ces dispositifs émergents présentent d’excellentes propriétés en raison de leur très faible consommation d'énergie et de leurs capacités de commutation analogique, ils nécessitent encore une validation à l’échelle de systèmes plus larges.

Dans l'un des laboratoires du CEA-Leti, nous développons de nouveaux transistors à base de lithium en tant que brique de base pour déployer des réseaux de neurones artificiels à faible consommation d'énergie. Ces dispositifs doivent désormais être intégrés dans un système réel pour évaluer leur performance et leur potentiel. En particulier, des circuits bio-inspirés et des architectures en barre croisée pour le calcul accéléré seront ciblés.

Au cours de cette thèse, votre objectif principal sera de concevoir, implémenter et tester des réseaux de neurones basés sur des matrices de transistors à base de lithium (~20x20) et des circuits neuromorphiques, ainsi que la logique CMOS de lecture et d’écriture pour les contrôler. Les réseaux pourront être implémentés en utilisant différents algorithmes et architectures, y compris les réseaux de neurones artificiels, les réseaux de neurones impulsionnels et les réseaux de neurones récurrents, qui seront testés pour résoudre des problèmes de reconnaissance de motifs spatiaux et/ou temporels et pour reproduire des fonctions biologiques telles que le conditionnement pavlovien.

Blockchain locale embarquée sur dispositifs physiques sécurisés

La blockchain repose sur un protocole de consensus qui a pour objectif de partager et répliquer des données ordonnancées entre les pairs d’un réseau distribué. La pile protocolaire, embarquée dans les dispositifs pairs du réseau, s’appuie sur un mécanisme de preuve qui atteste l’horodatage et permet une certaine équité au sein du réseau.
Les protocoles de consensus utilisés dans les blockchains déployées aujourd’hui ne sont pas adaptés pour l’embarqué, car ils requièrent trop de ressources de communication et/ou de calcul pour la preuve. Quelques travaux de recherche, comme IOTA ou HashGraph, traitent de ce sujet et pourront être analysés dans l’état de l’art.
La problématique de la thèse est de construire un protocole de consensus, frugal en communications et en ressources de calcul, dont la pile protocolaire sera implémentée dans un dispositif embarqué sécurisé. Ce protocole devra s’appuyer sur une preuve de temps écoulée issue de travaux de notre laboratoire, également frugale, appelée Proof-of-Hardware-Time (PoHT) et satisfaire les propriétés de finalité et d’équité. L’architecture complète d’un nœud pair du réseau sera conçue et embarquée sur une carte électronique de type microprocesseur intégrant plusieurs composants de sécurité matérielle, de telle sorte que la ressource de preuve ne soit pas parallélisable. La communication entre les pairs sera établie de façon distribuée.

Etudes avancées de la Représentation Sémantique, de l'Alignement et du Raisonnement dans les Systèmes de Communication Multi-Agents pour les Réseaux 6G

Les communications sémantiques représentent un domaine de recherche émergent et transformateur, où l'objectif se déplace de la transmission de simples données brutes à celle d'informations significatives. Bien que les premiers modèles et solutions de conception aient établi des principes fondamentaux, ils reposent souvent sur des hypothèses fortes concernant l'extraction, la représentation et l'interprétation du contenu sémantique. L'arrivée des réseaux 6G introduit de nouveaux défis, en particulier avec le besoin croissant de systèmes multi-agents où plusieurs agents pilotés par l'intelligence artificielle (IA) interagissent de manière fluide.
Dans ce contexte, le défi de l'alignement sémantique devient crucial. La littérature existante sur les communications sémantiques multi-agents suppose fréquemment que tous les agents partagent un cadre d'interprétation et de compréhension commun, ce qui est rarement le cas dans des scénarios pratiques. Des représentations mal alignées peuvent entraîner des inefficacités de communication, une perte d'informations critiques et des malentendus.
Cette recherche doctorale vise à faire progresser l'état de l'art en explorant les principes de représentation sémantique, d'alignement et de raisonnement dans des environnements multi-agents IA au sein des réseaux de communication 6G. L'étude examinera comment les agents peuvent aligner dynamiquement leurs modèles sémantiques, garantissant une interprétation cohérente des messages tout en tenant compte des différences de contexte, d'objectifs et de connaissances préalables. En s'appuyant sur des techniques issues de l'intelligence artificielle, telles que l'apprentissage automatique, l'alignement d'ontologies et le raisonnement multi-agents, l'objectif est de proposer des cadres novateurs qui améliorent l'efficacité et l'efficience des communications dans des environnements multi-agents. Ce travail contribuera à des systèmes de communication plus adaptatifs, intelligents et sensibles au contexte, essentiels à l'évolution des réseaux 6G.

Etude et simulation des entraînements de phase dans les batteries de mélangeurs-décanteurs

Dans le cadre du développement de nouveaux procédés de séparation par extraction liquide-liquide, des essais expérimentaux sont mis en œuvre afin de démontrer la récupération des éléments valorisables suffisamment décontaminés des impuretés. Ces essais sont couramment réalisés en batteries de mélangeurs décanteurs. Cependant, en fonction des conditions opératoires, ces produits finis peuvent être contaminés par des impuretés. Cette contamination résulte de la combinaison de plusieurs facteurs :
-Hydrodynamique : Entrainement dans le solvant de gouttes aqueuses non décantées contenant des impuretés
-Chimique : le facteur de séparation des impuretés est faible (inférieur à 10-3)
-Procédé : l’entrainement des gouttes est amplifié avec l’augmentation de la cadence (réduction du temps de séjour des gouttes)
Cette thèse a pour but d’accroitre la compréhension des différents phénomènes responsables de ces entraînements de phase afin d’estimer des paramètres opératoires optimaux et de garantir une contamination des produits finis inférieure à un seuil fixé.
Il sera question de mettre au point un modèle macroscopique permettant de prédire le débit d’entrainement de gouttes non décantées en fonction des conditions opératoires dans les batteries de mélangeurs décanteurs. Il devra s’appuyer sur des simulations hydrodynamiques couplant la résolution d’un bilan de population de gouttes à un écoulement de phase continue. Un couplage sera réalisé entre ce modèle hydrodynamique et le code PAREX ou PAREX+ permettant de dimensionner les schémas de procédé.
La qualification des modèles proposés devra être faite par des comparaisons à des mesures expérimentales (basées sur des compagnes d’essai antérieures ou à venir).

Approches logicielles et matérielles pour l'accéleration du traitement des matrices éparses de grande taille

La physique computationnelle, l'intelligence artificielle ou l'analyse de graphes sont autant de domaines reposant sur le traitement de matrices creuses de grande taille. Ce sujet s'inscrit au cœur des enjeux liés au traitement efficace de telles matrices, en explorant une approche systémique, à la fois matérielle et logicielle.

Bien que le traitement des matrices creuses a été étudié d'un point de vue purement logiciel pendant des décennies, ces dernières années, de nombreux accélérateurs matériels dédiés et très spécifiques, ont été proposés pour les données éparses. Ce qui manque, c'est une vision globale de comment exploiter ces accélérateurs, ainsi que le matériel standard tel que les GPUs, pour résoudre efficacement un problème complet. Avant de résoudre un problème matriciel, il est courant d'effectuer un prétraitement de la matrice. Il peut s'agir de techniques visant à améliorer la stabilité numérique, à ajuster la forme de la matrice et à la diviser en sous-matrices plus petites (tuilage) qui peuvent être distribuées aux cœurs de traitement. Dans le passé, ce prétraitement supposait des cœurs de calcul homogènes. De nouvelles approches sont nécessaires pour tirer parti des cœurs hétérogènes, qui peuvent inclure des accélérateurs dédiés et des GPUs. Par exemple, il peut être judicieux de répartir les régions les moins denses sur des accélérateurs spécialisés et d'utiliser des GPUs pour les régions plus denses, bien que cela reste à démontrer. L'objectif de cette thèse est de proposer une vue d'ensemble du traitement des matrices éparses et d'analyser les techniques logicielles nécessaires pour exploiter les accélérateurs. Le candidat s'appuiera sur une plateforme multicœur existante basée sur des cœurs RISC-V et un GPU open-source pour développer un cadre complet et étudiera quelles stratégies sont capables d'exploiter au mieux le matériel disponible.

Amélioration de la sécurité des communications grâce à la conception d'émetteurs-récepteurs plus rapides que Nyquist

Face à la demande croissante en capacité de transmission des réseaux de communication, il est essentiel d'explorer des techniques innovantes qui augmentent l'efficacité spectrale tout en maintenant la fiabilité et la sécurité des liens de transmission. Ce projet propose une modélisation théorique approfondie des systèmes Faster-Than-Nyquist (FTN) accompagnée de simulations et d'analyses numériques afin d’évaluer leurs performances dans différents scénarios de communication. L'étude s'efforcera d'identifier les compromis nécessaires pour maximiser le débit de transmission, tout en tenant compte des contraintes liées à la complexité de mise en œuvre et à la sécurité des transmissions, un enjeu crucial dans un environnement de plus en plus vulnérable aux cybermenaces. Ce travail permettra d’identifier les opportunités d'augmentation de capacité, tout en mettant en évidence les défis technologiques et les ajustements indispensables à une adoption généralisée de ces systèmes pour des liaisons critiques et sécurisées.

Etude la séparation des isotopes du lithium par laser

Cette thèse concerne l’étude de différentes voies de séparation des isotopes du lithium par laser. Les travaux seront menés à la fois théoriquement et expérimentalement. L’objectif est de déterminer une voie optimale ainsi que ses performances. On vise à obtenir un facteur de séparation isotopique supérieur à 100, alors que les procédés actuels possèdent des facteurs tout juste supérieurs à 1.
Méthodologie et déroulement de la thèse : La thèse se déclinera en 4 axes de recherches.
1-Les schémas de photo-ionisation déjà publiés seront tout d’abord analysés et de nouvelles séquences prometteuses seront recherchées. Ensuite il s’agira de recueillir les données spectroscopiques correspondantes, les données sur les lasers concernés et celles sur le régime d’interaction. Elles devront être analysées, compilées et assemblées. Ceci servira de base pour construire un modèle décrivant l’interaction laser-atome.
2-Des schémas de photo-ionisation prometteurs seront testés expérimentalement et les performances seront mesurées. Un banc d’essai (comprenant des moyens de vaporisation du lithium, des lasers et un spectromètre de masse à temps de vol) sera assemblé puis utilisé à cette fin.
3-Le rendement de séparation sera modélisé, avec un modèle de type mécanique quantique via l’évolution temporelle de la matrice densité par exemple, et l’efficacité en fonction des lasers disponibles sera ensuite examinée.
4-Les résultats expérimentaux seront comparés à ceux obtenus par modélisation afin de déterminer les performances optimales à attendre et leur extrapolation.
Les travaux pourront être publiés dans des conférences et des revues scientifiques après accord du CEA.

Top