Génération assistée par l'IA de simulateurs d’architectures numériques
Les outils de simulation d'architectures numériques reposent sur divers types de modèles, de niveaux d’abstraction différents, afin de répondre aux exigences de la co-conception et de la co-validation matériel/logiciel. Parmi ces modèles, ceux de plus haut niveau permettent la validation fonctionnelle rapide de logiciels sur les architectures cibles.
Ces modèles fonctionnels sont souvent élaborés de manière manuelle, une tâche à la fois fastidieuse et sujette aux erreurs. Lorsque des descriptions de bas niveau en RTL (Register Transfer Level) sont disponibles, elles deviennent une source à partir de laquelle des modèles de plus haut niveau, tels que les modèles fonctionnels, ou simulateurs rapides, peuvent être déduits. Des travaux préliminaires au CEA ont permis d'obtenir un prototype initial basé sur MLIR (Multi-Level Intermediate Representation), démontrant des résultats prometteurs dans la génération de fonctions d'exécution d'instructions à partir de descriptions RTL.
L'objectif de cette thèse est d'approfondir ces travaux, puis d'automatiser l'extraction des états architecturaux en s'inspirant des dernières avancées en matière d'apprentissage automatique pour l'EDA. Le résultat attendu est un flot complet de génération automatique de simulateurs fonctionnels à partir de RTL, garantissant ainsi, par construction, une consistance sémantique entre les deux niveaux d'abstraction.
Accélération logicielle et matérielle de Neural Fields en robotique autonome
Depuis 2020, les réseaux de neurones Neural Radiance Fields, ou NeRFs, ont été l'objet d'un fort intérêt de la communauté scientifique pour ses capacités de reconstruction 3D implicite et de synthèse de nouveaux points de vues d'une scène à partir d'un nombre restreint d'images de celles-ci. Les dernières avancées scientifiques ont permis d'améliorer drastiquement les performances initiales (réduction du nombre de données nécessaires, de besoins mémoire et augmentation de la vitesse de traitement), ouvrant la voie à de nouvelles utilisations de ces réseaux, en particulier en embarqué, ou pour de nouveaux objectifs.
Cette thèse s'intéresse ainsi à l'utilisation de ces réseaux à des fins de navigation robotique autonome, avec les contraintes embarquées impliquées: consommation, ressources matérielles de calcul et de mémorisation limitées. Le contexte de navigation impliquera d'élargir des travaux entamés autour de versions incrémentales de ces réseaux de neurones.
L'étudiant aura à charge de proposer et concevoir des mécanismes algorithmiques, logiciels et matériels innovants permettant d'envisager l'exécution de NeRFs en temps réels pour la navigation robotique autonome.
Etude du couplage de la technique de criblage haut débit et de l’intelligence artificielle pour identifier les matériaux innovants des batteries du futur
Le CEA, depuis quelques années, a mis en place une activité de criblage haut débit expérimental des matériaux pour les accumulateurs au lithium, basé sur la synthèse combinatoire par pulvérisation cathodique et de différentes techniques de caractérisation haut débit sur des substrats de grandes tailles (typiquement 4 pouces). L’optimisation des compositions des matériaux se fait classiquement par l’analyse de plans d’expérience. Dans cette thèse, nous proposons de comparer les résultats de cette méthode classique avec les outils d’Intelligence Artificielle développés au LIST (IA symbolique) et à CTREG (IA connexioniste). L’objectif est de démontrer que l’IA peut avantageusement remplacer les plans d’expériences pour proposer un outil de criblage haut débit innovant et très performant.
Apport des Physics-Informed Neural Neworks pour la simulation de problèmes complexes en physique
Une nouvelle méthode d'approximation des solutions d'équations aux dérivées partielles grâce à des Réseaux de Neurones ont récemment connu un gain de popularité. Ces méthodes, appelées Physics-Informed Neural Networks (PINNs) sont issues de récentes avancées dans le domaine de l'Intelligence Artificielle. Elles amènent un nouveau paradigme en comparaison des méthodes numériques conventionnelles comme les Volumes finis ou les Éléments finis. Le principe de la méthode consiste à embarquer le modèle physique d'intérêt dans la fonction de coût, qui minimise alors le résidu des opérateurs. Bien que ces méthodes fournissent des résultats prometteurs sur des problèmes académiques, elles soulèvent de nombreuses questions concernant leurs bénéfices sur des problèmes physiques complexes ainsi que leurs propriétés mathématiques. Ce projet de thèse a pour objectif d'étudier ces deux aspects.
Le ou la candidate s'appropriera l'approche PINNs à travers une étude de l'état de l'art afin de comprendre leur potentiel d'application sur des cas industriels. Nous proposons par la suite de se concentrer sur plusieurs problèmes mettant en jeu des types de complexités différentes. Ces problèmes proviendront de cas d'applications physiques d'intérêt comme les écoulements diphasiques ou le couplage neutronique-thermohydraulique.
Calcul de structure électronique avec des modèles d'apprentissage profond
Les simulations ab initio avec la théorie fonctionnelle de la densité (DFT) sont maintenant couramment utilisées dans toutes les disciplines scientifiques pour démêler les caractéristiques électroniques complexes et les propriétés des matériaux au niveau atomique. Au cours de la dernière décennie, l’apprentissage profond a révolutionné de nombreux domaines tels que la vision par ordinateur, le traitement du langage naturel, les diagnostics de soins de santé et les systèmes autonomes. La combinaison de ces deux domaines présente une avenue prometteuse pour améliorer la précision et l’efficacité des prédictions des propriétés des matériaux complexes, comblant l’écart entre la compréhension au niveau quantique et les connaissances axées sur les données pour accélérer la découverte scientifique et l’innovation. De nombreux efforts ont été consacrés à la construction de potentiels interatomiques d’apprentissage profond qui apprennent la surface d’énergie potentielle (PES) à partir de simulations DFT et peuvent être utilisés dans des simulations de dynamique moléculaire à grande échelle (MD). Généraliser de telles approches d’apprentissage profond pour prédire la structure électronique plutôt que seulement l’énergie, les forces et le tenseur de stress d’un système est une idée attrayante car elle ouvrirait de nouvelles frontières dans la recherche sur les matériaux, permettant la simulation de l’électronles propriétés physiques connexes dans les grands systèmes qui sont importants pour les applications microélectroniques. L’objectif de cette thèse est de développer de nouvelles méthodologies s’appuyant sur des réseaux de neurones équivariants pour prédire la DFT hamiltonienne (c.-à-d. la propriété la plus fondamentale) de matériaux complexes (y compris des troubles, des défauts, des interfaces, etc.) ou d’hétérostructures.
Algorithmes d’intelligence artificielle générative pour comprendre et contrer la polarisation en ligne
Les plateformes en ligne permettent une large diffusion de l'information, mais leurs modèles économiques centrés sur l'engagement des utilisateurs favorisent souvent la diffusion de contenus politiques idéologiquement homogènes ou controversés. Ces modèles peuvent conduire à la polarisation des opinions politiques et entraver le bon fonctionnement des systèmes démocratiques. Cette thèse étudiera des modèles génératifs d'IA innovants conçus pour comprendre en profondeur la polarisation politique et pour contrer ses effets. Elle mobilisera plusieurs sous-domaines de l'intelligence artificielle : l'apprentissage génératif, l'IA frugale, l'apprentissage continu et l'apprentissage multimédia. Les avancées seront associées aux défis suivants :
-la modélisation de la polarisation politique et l’utilisation du modèle obtenu pour guider les algorithmes d'IA mis en oeuvre ;
-la collecte et le nettoyage de données politiques multimodales massives et diversifiées pour assurer une couverture thématique et temporelle, et la création d’un espace de représentation sémantique commun ;
-la proposition de modèles génératifs orientés politique afin d'encoder les connaissances du domaine de manière efficace et efficiente et de générer des données d'entraînement pour les tâches aval ;
-la spécialisation des modèles pour les tâches spécifiques nécessaires à une compréhension fine de la polarisation (détection de thèmes, reconnaissance d’entités, analyse de sentiments) ;
-la mise à jour continue des modèles génératifs et des tâches spécifiques à la polarisation pour suivre la dynamique des événements et des nouvelles politiques.
Modélisation et optimisation ALARA d’opérations de maintenance de centrales de fusion par des techniques d’Intelligence Artificielle et de Réalité Virtuelle
Dans l’objectif du développement de futurs réacteurs de fusion, une difficulté identifiée concerne les opérations de maintenance de ces installations nucléaires, dont une partie devra être réalisée par des opérateurs humains. Les interventions en environnement radioactif se font suivant des règles de sécurité intégrant notamment le niveau de dose reçue, grandeur qui caractérise le risque auquel s’expose l’opérateur (dose dépendant du débit de dose ambiant et du temps de l’intervention).
Dans un contexte d'optimisation de cette dose conforme avec le principe ALARA et les contraintes de sûreté afférentes à ces installations, la simulation préalable des opérations en Réalité Virtuelle est un atout en termes d’optimisation de conception et d’entraînement des travailleurs. Le calcul de la dose pendant ces simulations serait un apport important permettant de discriminer différentes options. Les méthodes de simulation actuellement utilisées pour le calcul de débit de dose sont pour certaines imprécises et pour d’autres très coûteuses en temps de simulation.
L’objectif de ce travail est de proposer une nouvelle méthode d’estimation dynamique en temps réduit (voire temps réel ou proche) du débit de dose en fonction des déplacements à la fois des sources d’activation d’une installation de fusion, de l’opérateur de maintenance d’un écran protégeant ce dernier, représentatifs des conditions réelles d’intervention. Cette méthode s’appuiera sur des techniques d’Intelligence Artificielle couplées à des méthodes de Neutronique et devra être intégrable dans un outil de Réalité Virtuelle basé sur des plateformes existantes telles que Unity3D.
Méthodes d'Apprentissage Automatique pour la Détection d'Anomalies dans les Données Expérimentales de Plasma de Fusion - Application aux Données de WEST
Les plasmas de fusion dans les Tokamaks ont une dynamique non-linéaire complexe. Dans le tokamak WEST, de la même famille que le projet ITER, une grande quantité de données expérimentales hétérogènes sur la fusion est collectée. Assurer l'intégrité et la qualité de ces données en temps réel est indispensable pour le fonctionnement stable et sûr du Tokamak. Une surveillance et une validation continues sont essentielles, car toute perturbation ou anomalie peut affecter significativement notre capacité à assurer la stabilité du plasma, à contrôler ses performances voire sa durée de vie. La détection de séquences ou d'événements inhabituels dans les données collectées peut fournir des informations précieuses et aider à identifier des comportements potentiellement anormaux dans les opérations sur le plasma.
Cette thèse vise à étudier et à développer un système de détection d'anomalies pour le tokamak WEST -- en préfiguration de ce qui pourrait être installé sur ITER -- en intégrant des algorithmes d'apprentissage automatique, des méthodologies statistiques et des techniques de traitement du signal pour valider divers signaux diagnostics dans les opérations Tokamak, notamment la densité, l'interférométrie, la puissance rayonnée et les mesures magnétiques.
Les résultats attendus sont :
– Le développement d'algorithmes d'apprentissage automatique capables de détecter des anomalies dans des séries temporelles sélectionnées à partir des données du Tokamak WEST.
– La mise au point d'un système autonome opérationnel pour assurer la qualité des données dans les machines de fusion de type Tokamak, intégré à la plateforme IA de WEST.
– La constitution d'une base de données exhaustive.
– La validation d'un algorithme automatique d'assurance qualité des données spécifiques aux plasmas de fusion.
TECHNIQUES AVANCÉES D'INTELLIGENCE ARTIFICIELLE POUR LA RECONSTRUCTION DE PARTICULES DANS LE DÉTECTEUR CMS UTILISANT LE TIMING HAUTE PRÉCISION
Particle reconstruction in collider detectors is a multidimensional problem where machine learning algorithms offer the potential for significant improvements over traditional techniques. In the Compact Muon Solenoid (CMS) detector at the Large Hadron Collider (LHC), photons and electrons produced by the collisions at the interaction point are recorded by the CMS Electromagnetic Calorimeter (ECAL). The large number of collisions, coupled with the detector's complex geometry, make the reconstruction of clusters in the calorimeter a formidable challenge. Traditional algorithms struggle to distinguish between overlapping clusters created by proximate particles. In contrast, It has been shown that graph neural networks offer significant advantages, providing better differentiation between overlapping clusters without being negatively affected by the sparse topology of the events. However, it is crucial to understand which extracted features contribute to this superior performance and what kind of physics information they contain. This understanding is particularly important for testing the robustness of the algorithms under different operating conditions and for preventing any biases the network may introduce due to the difference between data and simulated samples (used to train the network).
In this project, we propose to use Gradient-weighted Class Activation Mapping (Grad-CAM) and its attention mechanism aware derivatives to interpret the algorithm's decisions. By evaluating the extracted features, we aim to derive analytical relationships that can be used to modify existing lightweight traditional algorithms.
Furthermore, with the upcoming High Luminosity upgrade of the LHC, events involving overlapping clusters are expected to become even more frequent, thereby increasing the need for advanced deep learning techniques. Additionally, precision timing information of the order of 30 ps will be made available to aid in particle reconstruction. In this PhD project, we also aim to explore deep learning techniques that utilize Graph and Attention mechanisms (Graph Attention Networks) to resolve spatially proximate clusters using timing information. We will integrate position and energy deposition data from the ECAL with precision timing measurements from both the ECAL and the new MIP Timing Detector (MTD). Ultimately, the developed techniques will be tested in the analysis of a Higgs boson decaying into two beyond-the-standard-model scalar particles.
We are seeking an enthusiastic PhD candidate who holds an MSc degree in particle physics and is eager to explore cutting-edge artificial intelligence techniques. The selected candidate will also work on the upgrade of the CMS detector for the high-luminosity LHC.
Intelligence artificielle pour la mesure de masse de précision d’isotopes exotiques
L'objectif de cette thèse de doctorat est d'améliorer la précision des mesures de masse des isotopes exotiques produits par le Super Spectrometer Separator (S3) à GANIL-SPIRAL2, en utilisant des techniques d'acquisition de pointe qui intégrent l'intelligence artificielle. Les capacités du spectromètre de masse à temps de vol PILGRIM pourront être pleinement exploitées par un développement collaboratif du système d'acquisition FASTER au LPC Caen.