Validation systémique des bases de règles floues : prise en compte de la disponibilité des données et des spécificités de l’inférence floue}

Ce sujet de thèse s’inscrit dans le domaine de l’intelligence artificielle symbolique. Contrairement aux approches basées sur les réseaux de neurones, ces méthodes reposent sur des règles explicites, souvent issues d’experts ou apprises à partir de peu de données, ce qui les rend interprétables mais potentiellement imparfaites.

Le problème central est donc la validation des bases de règles floues : il s’agit de vérifier que les règles produisent des résultats cohérents, utiles et fiables. Les méthodes existantes utilisent des métriques globales (performance globale du système) et locales (qualité de chaque règle), mais elles prennent peu en compte certaines spécificités importantes. Par exemple, les interactions entre règles peuvent fortement influencer le comportement final.

La thèse propose de développer une approche globale et systématique pour valider ces bases de règles, que des données soient disponibles ou non. Elle vise notamment à concevoir de nouvelles métriques capables de capturer ces interactions, en s’inspirant, par exemple, d’approches basées sur des graphes (comme les FinGrams ou les systèmes de réputation).

Le travail comprendra la définition d’un cadre méthodologique, la proposition de nouvelles mesures de validation, ainsi que leur implémentation et leur évaluation expérimentale.

Les résultats attendus sont des outils plus précis pour détecter les règles problématiques, et une amélioration globale de la performance et de la fiabilité des systèmes d’inférence floue.

Optimisation d'architecture neuronale post-entraînement pour petit modèles de langage

L’IA générative, et en particulier les modèles de langage (LLM), ont conduit à une nouvelle révolution de l'IA avec des applications dans tous les domaines. Cependant, les LLM sont très gourmands en ressources (énergie, calculs, etc.) et, par conséquent, difficiles à mettre en œuvre sur des systèmes embarqués autonomes. Les LLM peuvent être optimisés en modifiant leur architecture, pour remplacer les opérations de Transformer coûteuses par des alternatives moins coûteuses. Etant donné la difficulté d’entraîner des LLM « from scratch », cette thèse vise à développer des méthodes d’optimisation d’architecture neuronale post-entraînement, applicable à des petits LLM (SLM). De plus, la thèse vise à proposer un modèle de performance des différentes opérations d’un SLM et leurs alternatives, afin de guider le remplacement des opérations, et ainsi proposer une méthodologie complète d’optimisation de SLM en prenant en compte les contraintes matérielles. Le travail sera valorisé par des publications dans des conférences et journaux de rang majeur en IA, et les codes et méthodes développés pourront être intégrés dans les outils développés au CEA.

Concilier la prédictabilité et la performance dans les architectures de processeurs pour les systèmes critiques

Les systèmes critiques possèdent à la fois des exigences fonctionnelles et temporelles, ces dernières garantissant que toutes les échéances sont respectées pendant l’exécution ; tout dépassement pourrait entraîner des conséquences catastrophiques. La nature critique de ces systèmes impose la mise en œuvre de solutions matérielles et logicielles spécialisées.
Cette thèse de doctorat porte sur le développement d’architectures matérielles pour systèmes critiques, appelées architectures prédictibles, capables de fournir les garanties temporelles nécessaires. Plusieurs architectures de ce type existent déjà, généralement fondées sur des pipelines in-order et intégrant soit des restrictions comportementales (par exemple, la désactivation de mécanismes de spéculation complexes), soit des spécialisations structurelles (par exemple, des caches re-designés ou une arbitrage déterministe pour l’accès aux ressources partagées). Ces restrictions et spécialisations ont inévitablement un impact sur les performances ; la conception d’architectures prédictibles doit donc traiter directement le compromis entre prédictibilité et performance. Cette thèse vise à explorer ce compromis d’une manière nouvelle, en adaptant une variante hautes performances d’un processeur in-order (CVA6) et en développant des techniques top-down pour le rendre prédictible. Les performances de tels processeurs reposent habituellement sur des mécanismes tels que la prédiction de branchement, le préchargement (prefetching) et la prédiction de valeurs, mis en œuvre à l’aide d’éléments de stockage spécialisés (par exemple, des tampons) et appuyés par des mécanismes de contrôle tels que la restauration d’état (rollback) en cas de mauvaise spéculation. Dans ce contexte, l’objectif de la thèse est de définir un schéma général de prédictibilité pour l’exécution spéculative, couvrant à la fois l’organisation du stockage et le comportement de restauration.

Support logiciel pour l'utilisation d'accélérateur de calcul et de transfert mémoire

Pour des raisons d'énergie les futurs ordinateurs devront utiliser des accélérateurs pour le calcul comme pour les accès à la mémoire (GPU, TPU, NPU, DMA intelligents). Les application d'IA ont des besoins en calcul intensif à la fois en intensité de calcul et en débits mémoire.

Ces accélérateurs ne se basent pas sur un jeu d'instruction simple (ISA), ils s'affranchissent du modèle de Von Neuman et ils nécessitent d'écrire manuellement du code spécialisé.

Par ailleurs, il est difficile de comparer l'utilisation de ces accélérateurs avec un code utilisant un processeur non spécialisé, les codes sources initiaux étant très différents.

HybroLang est un langage de programmation proche matériel permettant d'exprimer des programmes utilisant toutes les capacités de calcul d'un processeur tout en permettant une spécialisation du code en fonction des données connues à l'exécution.

Le compilateur HybroGen a déjà démontré sa capacité de programmation d'accélérateurs de calcul en mémoire, comme en optimisation de code sur CPU classique en réalisant des optimisations innovantes.

Cette thèse se propose d'étendre le langage HybroLang afin de :

- faciliter la programmation d'application d'IA apportant le support pour des données complexes : stencils, convolution, calcul clairsemé

- permettre la génération de code à la fois sur CPU et avec des accélérateurs matériels en cours de développement au CEA (calcul clairsemé, calcul en mémoire, accès à la mémoire)

- permettre la comparaison d'architectures différentes en partant d'un seul code source d'application

Idéalement un candidat devra avoir des connaissances dans les domaines suivants : architecture des ordinateurs, implémentation de langage de programmation, compilation et optimisation de code.

Développement d’algorithme de Machine Learning pour l’optimisation du contrôle de machines à absorption

Le Laboratoire des Technologies Thermiques et Solaires (L2TS) et le Laboratoires des Systèmes Energétiques pour les Territoires (LSET) situés sur le site du CEA LITEN du Bourget-de-Lac proposent un sujet de thèse transverse portant à la fois sur de la thermodynamique et de l’optimisation par Intelligence Artificielle.

Précisément, ce projet de recherche doctorale consiste à développer un algorithme de Machine Learning pour optimiser le contrôle des machines à absorption. Ces machines sont des cycles thermodynamiques permettant de produire du froid ou du chaud à partir d’un apport de chaleur intermédiaires, et pouvant ainsi valoriser la chaleur fatale industrielle ou les énergies renouvelables tel que le solaire thermique. Les échanges de chaleur sont possible grâce aux réactions d’absorption et de désorption d’un réfrigérant sous forme gazeux dans un fluide. Spécifiquement, le mélange NH3-H2O sera utilisé. Le fonctionnement dynamique de ces cycles est extrêmement complexe car les variables opérationnelles, les paramètres physiques et les aspects hydrodynamiques sont fortement intriquées. Ainsi l’utilisation d’un réseau de neurones est particulièrement pertinente pour établir une stratégie de contrôle adaptative de ces machines.

La thèse aura un aspect théorique, avec l’étude et le choix de l’algorithme le plus adapté pour répondre à la problématique, et un aspect expérimental de validation sur un prototype de machine à absorption. Le projet impliquera également la conception d’un contrôleur pour l’implémentation.

La thèse se déroulera dans un laboratoire CEA au Bourget du Lac.

Mécanismes d’apprentissage pour la détection de comportements anormaux dans les systèmes embarqués

Les systèmes embarqués sont de plus en plus utilisés dans des infrastructures critiques (e.g. réseau de production d’énergie) et sont donc des cibles d’attaques privilégiées pour des acteurs malicieux. L’utilisation de systèmes de détection d’intrusion (IDS) analysant dynamiquement l’état du système devient nécessaire pour détecter une attaque avant que ses impacts ne deviennent dommageables.
Les IDS qui nous intéresse sont basés sur des méthodes de détection d’anomalie par machine learning et permettent d’apprendre le comportement normal d’un système et de lever une alerte à la moindre déviation. Cependant l’apprentissage du comportement normal par le modèle est fait une seule fois en amont sur un jeu de données statique, alors même que les systèmes embarqués considérés peuvent évoluer dans le temps avec des mises à jour affectant leur comportement nominal ou l’ajout de nouveaux comportements jugés légitimes.
Le sujet de cette thèse porte donc sur l’étude des mécanismes de réapprentissage pour les modèles de détection d’anomalie pour mettre à jour la connaissance du comportement normal par le modèle sans perdre d’information sur sa connaissance antérieure. D’autres paradigmes d’apprentissage, comme l’apprentissage par renforcement ou l’apprentissage fédéré, pourront aussi être étudiés pour améliorer les performances des IDS et permettre l’apprentissage à partir du comportement de plusieurs systèmes.

Analyse des vulnérabilités des protocoles sur cible matérielle

Le Centre d’Évaluation de la Sécurité des Technologies de l’Information (CESTI) mène des activités dans le domaine de l’évaluation sécuritaire de systèmes électroniques, de composants de logiciels embarqués, soit dans le cadre de schémas de certification, par exemple celui piloté par l’Agence Nationale de la Sécurité des Systèmes d’information (ANSSI), soit à la demande directe d’industriels.
Dans le contexte des évaluations sécuritaires effectuées par le CESTI, les évaluateurs sont, entre autres, amenés à tester la résistance des mécanismes cryptographiques embarqués sur une carte à puce face aux attaques physiques, comme par exemple les attaques par perturbation de la puce ou les attaques par observation des signaux compromettants. Dans un contexte applicatif (bancaire, santé, identité), ces mécanismes sont employés au sein de protocoles cryptographiques, tels que des échanges de clés ou des authentifications. Lorsqu’une vulnérabilité est détectée sur un produit, l’évaluateur doit analyser les impacts sur le protocole. Aujourd’hui cette analyse repose sur l’expertise de l’évaluateur, mais l’utilisation de méthodes formelles serait un avantage pour la recherche de chemin d’attaque ou pour garantir une meilleure assurance quant à l’absence d’exploitation de la vulnérabilité.
Dans un premier temps, cette thèse consistera à étudier les outils de vérification existants (par exemple Tamarin [1]) afin de les tester sur les protocoles utilisés dans les applications couramment évaluées. L’objectif de la thèse sera ensuite d’examiner les différents moyens pour exprimer une vulnérabilité au sein du protocole, d’évaluer la capacité de l’outil à analyser formellement ses impacts en identifiant des chemins d’attaque. Finalement, le doctorant sera amené à compléter l’outil à l’aide de nouvelles briques pour répondre aux besoins identifiés.
Références
[1] Tamarin : https://github.com/tamarin-prover/tamarin-prover

Implémentation du TFHE sur des systèmes embarqués à architecture RISC-V

Le chiffrement entièrement homomorphe (FHE, Fully Homomorphic Encryption) est une technologie qui permet d’effectuer des calculs directement sur des données chiffrées, ce qui signifie que l’on peut traiter des informations sans jamais connaître leur contenu réel. Par exemple, elle pourrait permettre d’effectuer des recherches en ligne où le serveur ne voit jamais ce que vous cherchez, ou encore des tâches d’inférence en intelligence artificielle sur des données privées qui demeurent entièrement confidentielles. Malgré son potentiel, les implémentations actuelles du FHE restent très coûteuses en calcul et nécessitent une puissance de traitement considérable, reposant généralement sur des processeurs (CPU) ou des cartes graphiques (GPU) haut de gamme, avec une consommation énergétique importante. En particulier, l’opération de bootstrapping représente un goulet d’étranglement majeur qui empêche une adoption à grande échelle. Les implémentations du FHE basées sur CPU peuvent dépasser 20 secondes sur des architectures x86 standards, tandis que les solutions ASIC personnalisées, bien que plus rapides, sont extrêmement coûteuses, dépassant souvent 150 mm² de surface en silicium. Ce projet de doctorat vise à accélérer le schéma TFHE, une variante plus légère et plus efficace du FHE. L’objectif est de concevoir et de prototyper des implémentations innovantes de TFHE sur des systèmes basés sur RISC-V, en visant une réduction significative de la latence du bootstrapping. La recherche explorera les synergies entre les techniques d’accélération matérielle développées pour la cryptographie post-quantique et celles applicables à TFHE, ainsi que des approches d'accélération de type "tightly-coupled" entre les cœurs RISC-V et les accélérateurs dédiés. Enfin, le projet étudiera la possibilité d’intégrer un domaine de calcul entièrement homomorphe directement au sein du jeu d’instructions du processeur.

Evaluation de méthodes polytopales pour la CFD sur architecture GPU

Cette proposition de recherche se place dans le cadre de l’étude et de l’implémentation de méthodes polytopales pour résoudre les équations de la mécanique des fluides. Ces méthodes ont pour but de traiter des maillages les plus généraux possibles permettant de s’affranchir de contraintes géométriques de forme ou héritées de manipulations CAO comme des extrusions ou des assemblages faisant apparaître des non-conformités. Ces travaux se placent également dans le cadre du calcul intensif en vue de répondre à l’augmentation des moyens de calcul et en particulier du développement du calcul massivement parallélisé sur GPU.

L’objectif de cette thèse est donc de reprendre les travaux réalisés sur les méthodes de type polytopales existantes dans le logiciel TRUST que sont les méthodes "Compatible Discrete Operator" (CDO) et"Discontinuous Galerkin" (DG), de compléter leur étude notamment pour les opérateurs de convection et d’investiguer d’autres méthodes existantes dans la littérature comme les méthodes "Hybrid High Order"(HHO), "Hybridizable Discontinuous Galerkin" (HDG) ou "Virtual Element Method" (VEM).

Les objectifs principaux sont d’évaluer :
1. le comportement numérique de ces différentes méthodes sur les équations de Stokes/Navier-Stokes,
2. l’adaptabilité de ces méthodes à des architectures hétérogène telles que les GPU.

Exploration et optimisation des architectures RAID et des technologies de virtualisation pour des serveurs de données haute performance

Face aux besoins toujours croissants de la simulation numérique, les
supercalculateurs doivent sans cesse évoluer pour améliorer leurs performances
et ainsi maintenir une haute qualité de service pour les utilisateurs.
Ces besoins se répercutent sur les systèmes de stockage, qui pour être
performants, fiables et capacitifs, doivent contenir des technologies de
pointe en ce qui concerne l'optimisation du placement des données et de
l'ordonnancement des accès I/O. L'objectif de la thèse est d'étudier ces
technologies telles que le GPU-based RAID et la virtualisation d'I/O, de
les évaluer et d'établir des optimisations permettant d'améliorer les
performances des systèmes de stockage HPC.

Top