Caractérisation expérimentale et numérique de plasmas produits par impulsions de courants intenses
Le projet EOLE « Electro-explosion Obéissant à la Loi d’Echelle » explore une technique originale pour simuler les effets d’une explosion de forte énergie. L’injection d’un courant impulsionnel intense dans un fil ou un ruban provoque son explosion et génère une onde de souffle sphérique qui se propage dans l’air ambiant, puis vient interagir avec une maquette sous test. La faisabilité de cette technique a été démontrée en 2021 au CEA/Gramat en développant un générateur compact de courant impulsionnel intense (qq centaines de kA) ainsi qu’une configuration de fil explosé permettant de générer une explosion sphérique d’énergie conforme aux attentes.
L'objectif de ces travaux de thèse est d'utiliser différents codes de calculs développés au CEA afin de caractériser le plasma généré lors des expérimentations avec le générateur EOLE. Plus précisément, il s'agit de caractériser le plasma produit lorsqu'un courant impulsionnel intense se propage dans un fil métallique placé dans l'air ambiant.
A partir de mesures expérimentales mises en oeuvre (spectroscopie, mesures de vitesse, mesures de pression, ...), le(a) candidat(e) devra restituer ces résultats par simulation avec des codes existants . L'une des premières restitution consiste à utiliser une modélisation collisionnelle - radiative des ions pour comprendre la phénoménologie du plasma créé. Un deuxième outil consiste à utiliser un code Lagrangien monodimensionnel prenant en compte les effets hydrodynamiques engendrés par l'explosion.
Dans un premier temps, une étude bibliographique portant sur la génération de plasmas hors équilibre par impulsions de champs électriques, sera effectuée. Dans un deuxième temps, les modélisations avec le code 1D Lagrangien permettront de déterminer les paramètres macroscopiques du plasma. La modélisation du plasma sera effectuée dans un troisième temps en tenant compte du rayonnement produit par le plasma, et des collisions entre les ions. Enfin, les résultats du modèle seront validés par comparaison avec des mesures électromagnétiques (courants, tensions, champs E et H) et optiques (spectrométrie d'émission) effectuées sur le moyen EOLE.
Développement d’un flow de data préparation de lithographique 3D pour le dessin du masque freeform
Avec l’avancement des technologies optoélectroniques, notamment des imageurs et AR/VR, des géométries 3D de dimensions sub-micrométriques sont plus en plus demandées par les clients industriels. Pour fabriquer ces structures 3D, la lithographie « grayscale » avec UV profond (248nm ou 193nm) est une technologie prometteuse compatible avec la production industrielle. Par contre, la maîtrise de cette technologie est complexe et nécessite un modèle de lithographie (optique + résine) avancée pour prédire le dessin du masque optique utilisé. La thèse permettra d’améliorer notre compréhension de nos model lithographie grayscale et ses limite, ayant pour d’améliorer et d’optimiser la model et la flow de data préparation ou masque design pour diminuer l’ecart entre simulation et pattern fabriquée. Masque freeform poussera les limites de lithographie grayscale pour attendre de pitch plus agressive souhaiter pour l’application optique et optoélectronique.
Modélisation et Validation expérimentale d’un réacteur catalytique et optimisation du procédé pour la production de e-Biocarburants
Les procédés « Biomass-to-liquid » visant une gazéification de biomasse en syngaz (mélange mélange CO+CO2+H2) puis une transformation de ce syngaz par une synthèse Fischer-Tropsch visant la production de différents carburants (kérosène, diesel, gasoil marin) connaissent un essor ces 20 dernières années. Plusieurs démonstrateurs ont été développés, notamment en Europe. Cependant, le trop faible ratio H/C du syngaz résultant de la gazéification nécessite une recirculation voire le rejet du CO2 en sortie du procédé ce qui complexifie les séparations et a un impact négatif sur la valorisation du carbone biosourcé.
Récemment, la possibilité d’effectuer, au sein d’un même réacteur catalytique, la réaction de Reverse Water Gas Shift (RWGS) et la réaction de Fischer-Tropsch (FT) à l’aide de catalyseurs à base de fer et de différents promoteurs a été démontrée (Riedel, 1999) et reproduite dans le cadre de plusieurs thèses CEA/CP2M (Panzone, 2019 ). Elle ouvre de nouveaux potentiels pour valoriser au mieux l’ensemble du contenu carboné de la biomasse à condition de compléter le syngaz par un apport d’hydrogène issu d’électricité renouvelable.
L’objectif de la thèse se concentre sur l’hydrogénation directe d’un mélange CO/CO2 en hydrocarbures qui consiste à enchainer au sein du même réacteur les reactions de RWGS et la synthèse Fischer-Tropsch . Il s’agit de modéliser cette synthèse catalytique dans un réacteur à lit fixe dans des conditions représentatives d’un procédé industriel de PBtL afin d’en optimizer le fonctionnement.
Etude expérimentale des couches limites en convection turbulente par spectroscopie d'ondes multi-diffusées.
La convection turbulente est un des principaux moteurs des écoulements géophysiques et astrophysiques et est donc un élément clef de la modélisation du climat. Elle intervient aussi dans de nombreux écoulements industriels. L'efficacité du transport est souvent limitée par des couches limites dont la nature et les transitions en fonction des paramètres de contrôle sont mal connues.
Le but de cette thèse sera de mettre en place d’une expérience de convection pour sonder le taux de dissipation dans les couches limites dans le régime turbulent grâce à une technique innovante développée dans l’équipe : la spectroscopie d’ondes multi-diffusées.
Conception et fabrication de circuits neuromorphiques basés sur des dispositifs ioniques
Les réseaux de neurones (NN) sont inspirés des processus de calcul et de communication du cerveau afin de résoudre efficacement des tâches telles que l'analyse de données, le traitement adaptatif de signaux en temps réel, et la modélisation de systèmes biologiques. Cependant, les limitations matérielles constituent actuellement le principal obstacle à une adoption à grande échelle. Pour y remédier, un nouveau type d'architecture de circuit appelé "circuit neuromorphique" est en train d’émerger. Ces circuits imitent le comportement des neurones en intégrant un haut degré de parallélisme, une connectivité adaptable et un calcul en mémoire. Les transistors à base d'ions ont été récemment étudiés pour leur potentiel à fonctionner comme neurones et synapses artificiels. Bien que ces dispositifs émergents présentent d’excellentes propriétés en raison de leur très faible consommation d'énergie et de leurs capacités de commutation analogique, ils nécessitent encore une validation à l’échelle de systèmes plus larges.
Dans l'un des laboratoires du CEA-Leti, nous développons de nouveaux transistors à base de lithium en tant que brique de base pour déployer des réseaux de neurones artificiels à faible consommation d'énergie. Ces dispositifs doivent désormais être intégrés dans un système réel pour évaluer leur performance et leur potentiel. En particulier, des circuits bio-inspirés et des architectures en barre croisée pour le calcul accéléré seront ciblés.
Au cours de cette thèse, votre objectif principal sera de concevoir, implémenter et tester des réseaux de neurones basés sur des matrices de transistors à base de lithium (~20x20) et des circuits neuromorphiques, ainsi que la logique CMOS de lecture et d’écriture pour les contrôler. Les réseaux pourront être implémentés en utilisant différents algorithmes et architectures, y compris les réseaux de neurones artificiels, les réseaux de neurones impulsionnels et les réseaux de neurones récurrents, qui seront testés pour résoudre des problèmes de reconnaissance de motifs spatiaux et/ou temporels et pour reproduire des fonctions biologiques telles que le conditionnement pavlovien.
Blockchain locale embarquée sur dispositifs physiques sécurisés
La blockchain repose sur un protocole de consensus qui a pour objectif de partager et répliquer des données ordonnancées entre les pairs d’un réseau distribué. La pile protocolaire, embarquée dans les dispositifs pairs du réseau, s’appuie sur un mécanisme de preuve qui atteste l’horodatage et permet une certaine équité au sein du réseau.
Les protocoles de consensus utilisés dans les blockchains déployées aujourd’hui ne sont pas adaptés pour l’embarqué, car ils requièrent trop de ressources de communication et/ou de calcul pour la preuve. Quelques travaux de recherche, comme IOTA ou HashGraph, traitent de ce sujet et pourront être analysés dans l’état de l’art.
La problématique de la thèse est de construire un protocole de consensus, frugal en communications et en ressources de calcul, dont la pile protocolaire sera implémentée dans un dispositif embarqué sécurisé. Ce protocole devra s’appuyer sur une preuve de temps écoulée issue de travaux de notre laboratoire, également frugale, appelée Proof-of-Hardware-Time (PoHT) et satisfaire les propriétés de finalité et d’équité. L’architecture complète d’un nœud pair du réseau sera conçue et embarquée sur une carte électronique de type microprocesseur intégrant plusieurs composants de sécurité matérielle, de telle sorte que la ressource de preuve ne soit pas parallélisable. La communication entre les pairs sera établie de façon distribuée.
Etudes avancées de la Représentation Sémantique, de l'Alignement et du Raisonnement dans les Systèmes de Communication Multi-Agents pour les Réseaux 6G
Les communications sémantiques représentent un domaine de recherche émergent et transformateur, où l'objectif se déplace de la transmission de simples données brutes à celle d'informations significatives. Bien que les premiers modèles et solutions de conception aient établi des principes fondamentaux, ils reposent souvent sur des hypothèses fortes concernant l'extraction, la représentation et l'interprétation du contenu sémantique. L'arrivée des réseaux 6G introduit de nouveaux défis, en particulier avec le besoin croissant de systèmes multi-agents où plusieurs agents pilotés par l'intelligence artificielle (IA) interagissent de manière fluide.
Dans ce contexte, le défi de l'alignement sémantique devient crucial. La littérature existante sur les communications sémantiques multi-agents suppose fréquemment que tous les agents partagent un cadre d'interprétation et de compréhension commun, ce qui est rarement le cas dans des scénarios pratiques. Des représentations mal alignées peuvent entraîner des inefficacités de communication, une perte d'informations critiques et des malentendus.
Cette recherche doctorale vise à faire progresser l'état de l'art en explorant les principes de représentation sémantique, d'alignement et de raisonnement dans des environnements multi-agents IA au sein des réseaux de communication 6G. L'étude examinera comment les agents peuvent aligner dynamiquement leurs modèles sémantiques, garantissant une interprétation cohérente des messages tout en tenant compte des différences de contexte, d'objectifs et de connaissances préalables. En s'appuyant sur des techniques issues de l'intelligence artificielle, telles que l'apprentissage automatique, l'alignement d'ontologies et le raisonnement multi-agents, l'objectif est de proposer des cadres novateurs qui améliorent l'efficacité et l'efficience des communications dans des environnements multi-agents. Ce travail contribuera à des systèmes de communication plus adaptatifs, intelligents et sensibles au contexte, essentiels à l'évolution des réseaux 6G.
Développement d’une nuance avancée d’acier austénitique nano-renforcé pour utilisation sous flux intense
Les travaux récents ont montré qu’il était possible d’obtenir des aciers austénitiques ODS (Oxide Dispersion Strengthened – renforcés par dispersion d’oxydes) pour une utilisation sous flux intense. Ces nouvelles nuances commencent à être étudiées pour le nucléaire à travers le monde. Elles devraient présenter des propriétés remarquables, notamment en termes de résistance au gonflement sous irradiation et au fluage, grâce à l’ajout de nano-renforts en densité exceptionnelle (10^23 à 10^24 m-3). Ces aciers ODS sont obtenus par métallurgie des poudres, par co-broyage d’une poudre métallique avec une poudre d’oxyde.
Le but de ce travail est de réussir à fabriquer, grâce à un procédé innovant, des tubes de gainage en acier austénitique ODS. Il conviendra de maitriser la recristallisation de ces tubes, de proposer une première évaluation critique en précisant les relations propriétés/microstructures et en évaluant, par des irradiations aux particules chargées, le comportement sous flux de ce nouveau matériau.
L’étudiant sera formé à la Microscopie Electronique à Balayage et aux techniques qui en découlent (analyse X, EBSD …), à la diffusion centrale, à la réalisation et l’exploitation d’essais mécaniques. Il devra acquérir de bonnes notions en Microscopie Electronique à Transmission et en Sonde Atomique Tomographique. La compréhension du comportement sous irradiation sera guidée par des simulations par dynamique d’amas.
Etude et simulation des entraînements de phase dans les batteries de mélangeurs-décanteurs
Dans le cadre du développement de nouveaux procédés de séparation par extraction liquide-liquide, des essais expérimentaux sont mis en œuvre afin de démontrer la récupération des éléments valorisables suffisamment décontaminés des impuretés. Ces essais sont couramment réalisés en batteries de mélangeurs décanteurs. Cependant, en fonction des conditions opératoires, ces produits finis peuvent être contaminés par des impuretés. Cette contamination résulte de la combinaison de plusieurs facteurs :
-Hydrodynamique : Entrainement dans le solvant de gouttes aqueuses non décantées contenant des impuretés
-Chimique : le facteur de séparation des impuretés est faible (inférieur à 10-3)
-Procédé : l’entrainement des gouttes est amplifié avec l’augmentation de la cadence (réduction du temps de séjour des gouttes)
Cette thèse a pour but d’accroitre la compréhension des différents phénomènes responsables de ces entraînements de phase afin d’estimer des paramètres opératoires optimaux et de garantir une contamination des produits finis inférieure à un seuil fixé.
Il sera question de mettre au point un modèle macroscopique permettant de prédire le débit d’entrainement de gouttes non décantées en fonction des conditions opératoires dans les batteries de mélangeurs décanteurs. Il devra s’appuyer sur des simulations hydrodynamiques couplant la résolution d’un bilan de population de gouttes à un écoulement de phase continue. Un couplage sera réalisé entre ce modèle hydrodynamique et le code PAREX ou PAREX+ permettant de dimensionner les schémas de procédé.
La qualification des modèles proposés devra être faite par des comparaisons à des mesures expérimentales (basées sur des compagnes d’essai antérieures ou à venir).
Approches logicielles et matérielles pour l'accéleration du traitement des matrices éparses de grande taille
La physique computationnelle, l'intelligence artificielle ou l'analyse de graphes sont autant de domaines reposant sur le traitement de matrices creuses de grande taille. Ce sujet s'inscrit au cœur des enjeux liés au traitement efficace de telles matrices, en explorant une approche systémique, à la fois matérielle et logicielle.
Bien que le traitement des matrices creuses a été étudié d'un point de vue purement logiciel pendant des décennies, ces dernières années, de nombreux accélérateurs matériels dédiés et très spécifiques, ont été proposés pour les données éparses. Ce qui manque, c'est une vision globale de comment exploiter ces accélérateurs, ainsi que le matériel standard tel que les GPUs, pour résoudre efficacement un problème complet. Avant de résoudre un problème matriciel, il est courant d'effectuer un prétraitement de la matrice. Il peut s'agir de techniques visant à améliorer la stabilité numérique, à ajuster la forme de la matrice et à la diviser en sous-matrices plus petites (tuilage) qui peuvent être distribuées aux cœurs de traitement. Dans le passé, ce prétraitement supposait des cœurs de calcul homogènes. De nouvelles approches sont nécessaires pour tirer parti des cœurs hétérogènes, qui peuvent inclure des accélérateurs dédiés et des GPUs. Par exemple, il peut être judicieux de répartir les régions les moins denses sur des accélérateurs spécialisés et d'utiliser des GPUs pour les régions plus denses, bien que cela reste à démontrer. L'objectif de cette thèse est de proposer une vue d'ensemble du traitement des matrices éparses et d'analyser les techniques logicielles nécessaires pour exploiter les accélérateurs. Le candidat s'appuiera sur une plateforme multicœur existante basée sur des cœurs RISC-V et un GPU open-source pour développer un cadre complet et étudiera quelles stratégies sont capables d'exploiter au mieux le matériel disponible.