Support logiciel pour l'utilisation d'accélérateur de calcul et de transfert mémoire

Pour des raisons d'énergie les futurs ordinateurs devront utiliser des accélérateurs pour le calcul comme pour les accès à la mémoire (GPU, TPU, NPU, DMA intelligents). Les application d'IA ont des besoins en calcul intensif à la fois en intensité de calcul et en débits mémoire.

Ces accélérateurs ne se basent pas sur un jeu d'instruction simple (ISA), ils s'affranchissent du modèle de Von Neuman et ils nécessitent d'écrire manuellement du code spécialisé.

Par ailleurs, il est difficile de comparer l'utilisation de ces accélérateurs avec un code utilisant un processeur non spécialisé, les codes sources initiaux étant très différents.

HybroLang est un langage de programmation proche matériel permettant d'exprimer des programmes utilisant toutes les capacités de calcul d'un processeur tout en permettant une spécialisation du code en fonction des données connues à l'exécution.

Le compilateur HybroGen a déjà démontré sa capacité de programmation d'accélérateurs de calcul en mémoire, comme en optimisation de code sur CPU classique en réalisant des optimisations innovantes.

Cette thèse se propose d'étendre le langage HybroLang afin de :

- faciliter la programmation d'application d'IA apportant le support pour des données complexes : stencils, convolution, calcul clairsemé

- permettre la génération de code à la fois sur CPU et avec des accélérateurs matériels en cours de développement au CEA (calcul clairsemé, calcul en mémoire, accès à la mémoire)

- permettre la comparaison d'architectures différentes en partant d'un seul code source d'application

Idéalement un candidat devra avoir des connaissances dans les domaines suivants : architecture des ordinateurs, implémentation de langage de programmation, compilation et optimisation de code.

Extraction de relations complexes et d'événements few-shot à partir de texte appliquée à la littérature scientifique

L'extraction d'information à partir de textes, qui se rattache plus généralement au traitement automatique des langues, a fait l'objet de travaux depuis de nombreuses années centrées sur la reconnaissance d'entités nommées, l'extraction de relations entre ces entités et pour sa partie la plus complexe, celle d'événements, qui prend la forme d'une tâche de remplissage de formulaires (templates) prédéfinis à partir de textes. Dans ce contexte, l'objectif de la thèse est de concevoir, développer et évaluer des modèles d'extraction d'événements opérant sur des articles scientifiques, un événement pouvant correspondre dans ce contexte à un ensemble d'entités et de relations caractérisant par exemple une expérience ou une réaction chimique. De plus, ces modèles devront pouvoir être définis à partir d'un ensemble très restreint de données annotées afin de s'adapter rapidement à un nouveau domaine scientifique.

Sur le plan méthodologique, la thèse proposée cherche à dépasser la tendance que l'on pourrait qualifier de presque naturelle dans le contexte actuel à se tourner vers les grands modèles de langue génératifs (LLM) en défendant l'idée d'une synergie possible entre LLM et modèles plus petits de type encodeur dans un contexte few-shot, synergie dans laquelle les premiers permettent, grâce à la génération de données et d'annotations synthétiques, de construire les ressources permettant de mettre en œuvre les seconds par le biais de mécanismes de préentraînement. La thèse prendra place dans le contexte du projet AIKO de l’agence de programmes numérique, focalisé sur l'extraction de connaissances à partir de publications scientifiques.

Développement d’algorithme de Machine Learning pour l’optimisation du contrôle de machines à absorption

Le Laboratoire des Technologies Thermiques et Solaires (L2TS) et le Laboratoires des Systèmes Energétiques pour les Territoires (LSET) situés sur le site du CEA LITEN du Bourget-de-Lac proposent un sujet de thèse transverse portant à la fois sur de la thermodynamique et de l’optimisation par Intelligence Artificielle.

Précisément, ce projet de recherche doctorale consiste à développer un algorithme de Machine Learning pour optimiser le contrôle des machines à absorption. Ces machines sont des cycles thermodynamiques permettant de produire du froid ou du chaud à partir d’un apport de chaleur intermédiaires, et pouvant ainsi valoriser la chaleur fatale industrielle ou les énergies renouvelables tel que le solaire thermique. Les échanges de chaleur sont possible grâce aux réactions d’absorption et de désorption d’un réfrigérant sous forme gazeux dans un fluide. Spécifiquement, le mélange NH3-H2O sera utilisé. Le fonctionnement dynamique de ces cycles est extrêmement complexe car les variables opérationnelles, les paramètres physiques et les aspects hydrodynamiques sont fortement intriquées. Ainsi l’utilisation d’un réseau de neurones est particulièrement pertinente pour établir une stratégie de contrôle adaptative de ces machines.

La thèse aura un aspect théorique, avec l’étude et le choix de l’algorithme le plus adapté pour répondre à la problématique, et un aspect expérimental de validation sur un prototype de machine à absorption. Le projet impliquera également la conception d’un contrôleur pour l’implémentation.

La thèse se déroulera dans un laboratoire CEA au Bourget du Lac.

DevOps piloté par les modèles pour l'orchestration cloud : Relier les garanties de conception et d'exécution

L'ingénierie dirigée par les modèles (MDE) repose traditionnellement sur une séparation nette entre conception et exécution, mais cette frontière ne tient plus dans les environnements cloud natifs et edge actuels, où les infrastructures sont hétérogènes, dynamiques et en constante évolution. Les hypothèses validées à la conception peuvent devenir invalides à l'exécution, et les plateformes d'orchestration modernes comme Kubernetes ou OpenStack, bien qu'efficaces, restent faiblement connectées aux environnements de modélisation architecturale. Il en résulte un écart structurel entre la spécification architecturale et le comportement opérationnel réel. Pour combler ce fossé, cette thèse propose de développer un cadre formel de modélisation des contraintes de placement sur des plateformes d'orchestration hétérogènes, en assurant une continuité entre la validation à la conception et les garanties à l'exécution. Ce cadre élèverait les contraintes de placement — localité des ressources, affinité, latence réseau, isolation sécurité, objectifs de qualité de service — au rang de construits de modélisation de premier ordre. À la conception, il permettrait une analyse statique de faisabilité et la génération automatisée d'artefacts de déploiement ; à l'exécution, il assurerait une surveillance continue de la conformité et une reconfiguration adaptative en cas de violation. Les contributions attendues incluent un langage formel de modélisation, des transformations bidirectionnelles entre modèles de conception et représentations d'exécution, ainsi qu'une intégration avec l'outillage Papyrus. L'objectif final est de garantir que l'intention architecturale reste cohérente et vérifiable tout au long du cycle de vie du système, de sa conception jusqu'à son exploitation en production.

Mécanismes d’apprentissage pour la détection de comportements anormaux dans les systèmes embarqués

Les systèmes embarqués sont de plus en plus utilisés dans des infrastructures critiques (e.g. réseau de production d’énergie) et sont donc des cibles d’attaques privilégiées pour des acteurs malicieux. L’utilisation de systèmes de détection d’intrusion (IDS) analysant dynamiquement l’état du système devient nécessaire pour détecter une attaque avant que ses impacts ne deviennent dommageables.
Les IDS qui nous intéresse sont basés sur des méthodes de détection d’anomalie par machine learning et permettent d’apprendre le comportement normal d’un système et de lever une alerte à la moindre déviation. Cependant l’apprentissage du comportement normal par le modèle est fait une seule fois en amont sur un jeu de données statique, alors même que les systèmes embarqués considérés peuvent évoluer dans le temps avec des mises à jour affectant leur comportement nominal ou l’ajout de nouveaux comportements jugés légitimes.
Le sujet de cette thèse porte donc sur l’étude des mécanismes de réapprentissage pour les modèles de détection d’anomalie pour mettre à jour la connaissance du comportement normal par le modèle sans perdre d’information sur sa connaissance antérieure. D’autres paradigmes d’apprentissage, comme l’apprentissage par renforcement ou l’apprentissage fédéré, pourront aussi être étudiés pour améliorer les performances des IDS et permettre l’apprentissage à partir du comportement de plusieurs systèmes.

Analyse des vulnérabilités des protocoles sur cible matérielle

Le Centre d’Évaluation de la Sécurité des Technologies de l’Information (CESTI) mène des activités dans le domaine de l’évaluation sécuritaire de systèmes électroniques, de composants de logiciels embarqués, soit dans le cadre de schémas de certification, par exemple celui piloté par l’Agence Nationale de la Sécurité des Systèmes d’information (ANSSI), soit à la demande directe d’industriels.
Dans le contexte des évaluations sécuritaires effectuées par le CESTI, les évaluateurs sont, entre autres, amenés à tester la résistance des mécanismes cryptographiques embarqués sur une carte à puce face aux attaques physiques, comme par exemple les attaques par perturbation de la puce ou les attaques par observation des signaux compromettants. Dans un contexte applicatif (bancaire, santé, identité), ces mécanismes sont employés au sein de protocoles cryptographiques, tels que des échanges de clés ou des authentifications. Lorsqu’une vulnérabilité est détectée sur un produit, l’évaluateur doit analyser les impacts sur le protocole. Aujourd’hui cette analyse repose sur l’expertise de l’évaluateur, mais l’utilisation de méthodes formelles serait un avantage pour la recherche de chemin d’attaque ou pour garantir une meilleure assurance quant à l’absence d’exploitation de la vulnérabilité.
Dans un premier temps, cette thèse consistera à étudier les outils de vérification existants (par exemple Tamarin [1]) afin de les tester sur les protocoles utilisés dans les applications couramment évaluées. L’objectif de la thèse sera ensuite d’examiner les différents moyens pour exprimer une vulnérabilité au sein du protocole, d’évaluer la capacité de l’outil à analyser formellement ses impacts en identifiant des chemins d’attaque. Finalement, le doctorant sera amené à compléter l’outil à l’aide de nouvelles briques pour répondre aux besoins identifiés.
Références
[1] Tamarin : https://github.com/tamarin-prover/tamarin-prover

CNN léger et GNN causal pour la compréhension des scènes

La compréhension des scènes est un défi majeur dans le domaine de la vision par ordinateur. Les approches récentes sont dominées par les transformers (ViT, LLM, MLLM), qui offrent des performances élevées mais à un coût computationnel important. Cette thèse propose une alternative innovante combinant des réseaux neuronaux convolutifs légers (Lightweight CNN) et des réseaux neuronaux graph causaux (Causal GNN) pour une analyse spatio-temporelle efficace tout en optimisant les ressources computationnelles. Les Lightweight CNN permettent une extraction haute performance des caractéristiques visuelles, tandis que les Causal GNN modélisent les relations dynamiques entre les objets dans un graphe de scène, répondant ainsi aux défis de la détection d'objets et de la prédiction des relations dans des environnements complexes. Contrairement aux modèles actuels basés sur les transformers, cette approche vise à réduire la complexité de calcul tout en conservant une précision compétitive, avec des applications potentielles dans la vision embarquée et les systèmes en temps réel.

Implémentation du TFHE sur des systèmes embarqués à architecture RISC-V

Le chiffrement entièrement homomorphe (FHE, Fully Homomorphic Encryption) est une technologie qui permet d’effectuer des calculs directement sur des données chiffrées, ce qui signifie que l’on peut traiter des informations sans jamais connaître leur contenu réel. Par exemple, elle pourrait permettre d’effectuer des recherches en ligne où le serveur ne voit jamais ce que vous cherchez, ou encore des tâches d’inférence en intelligence artificielle sur des données privées qui demeurent entièrement confidentielles. Malgré son potentiel, les implémentations actuelles du FHE restent très coûteuses en calcul et nécessitent une puissance de traitement considérable, reposant généralement sur des processeurs (CPU) ou des cartes graphiques (GPU) haut de gamme, avec une consommation énergétique importante. En particulier, l’opération de bootstrapping représente un goulet d’étranglement majeur qui empêche une adoption à grande échelle. Les implémentations du FHE basées sur CPU peuvent dépasser 20 secondes sur des architectures x86 standards, tandis que les solutions ASIC personnalisées, bien que plus rapides, sont extrêmement coûteuses, dépassant souvent 150 mm² de surface en silicium. Ce projet de doctorat vise à accélérer le schéma TFHE, une variante plus légère et plus efficace du FHE. L’objectif est de concevoir et de prototyper des implémentations innovantes de TFHE sur des systèmes basés sur RISC-V, en visant une réduction significative de la latence du bootstrapping. La recherche explorera les synergies entre les techniques d’accélération matérielle développées pour la cryptographie post-quantique et celles applicables à TFHE, ainsi que des approches d'accélération de type "tightly-coupled" entre les cœurs RISC-V et les accélérateurs dédiés. Enfin, le projet étudiera la possibilité d’intégrer un domaine de calcul entièrement homomorphe directement au sein du jeu d’instructions du processeur.

Evaluation de méthodes polytopales pour la CFD sur architecture GPU

Cette proposition de recherche se place dans le cadre de l’étude et de l’implémentation de méthodes polytopales pour résoudre les équations de la mécanique des fluides. Ces méthodes ont pour but de traiter des maillages les plus généraux possibles permettant de s’affranchir de contraintes géométriques de forme ou héritées de manipulations CAO comme des extrusions ou des assemblages faisant apparaître des non-conformités. Ces travaux se placent également dans le cadre du calcul intensif en vue de répondre à l’augmentation des moyens de calcul et en particulier du développement du calcul massivement parallélisé sur GPU.

L’objectif de cette thèse est donc de reprendre les travaux réalisés sur les méthodes de type polytopales existantes dans le logiciel TRUST que sont les méthodes "Compatible Discrete Operator" (CDO) et"Discontinuous Galerkin" (DG), de compléter leur étude notamment pour les opérateurs de convection et d’investiguer d’autres méthodes existantes dans la littérature comme les méthodes "Hybrid High Order"(HHO), "Hybridizable Discontinuous Galerkin" (HDG) ou "Virtual Element Method" (VEM).

Les objectifs principaux sont d’évaluer :
1. le comportement numérique de ces différentes méthodes sur les équations de Stokes/Navier-Stokes,
2. l’adaptabilité de ces méthodes à des architectures hétérogène telles que les GPU.

Exploration et optimisation des architectures RAID et des technologies de virtualisation pour des serveurs de données haute performance

Face aux besoins toujours croissants de la simulation numérique, les
supercalculateurs doivent sans cesse évoluer pour améliorer leurs performances
et ainsi maintenir une haute qualité de service pour les utilisateurs.
Ces besoins se répercutent sur les systèmes de stockage, qui pour être
performants, fiables et capacitifs, doivent contenir des technologies de
pointe en ce qui concerne l'optimisation du placement des données et de
l'ordonnancement des accès I/O. L'objectif de la thèse est d'étudier ces
technologies telles que le GPU-based RAID et la virtualisation d'I/O, de
les évaluer et d'établir des optimisations permettant d'améliorer les
performances des systèmes de stockage HPC.

Top