Détection d’attaques dans l’infrastructure de contrôle distribué du réseau électrique

Afin de permettre l’émergence de réseaux d’énergie flexibles et résilients, il faut trouver des solutions aux défis auxquels ils font face. Dans le cadre de ce postdoc on s’intéresse en particulier à la numérisation et la protection des flux de données que cela entraînera, ainsi qu’aux problématiques de cybersécurité.
Dans le cadre du projet Tasting, et en collaboration avec RTE, l’opérateur français du réseau de transport de l’électricité, votre rôle sera de se pencher sur la protection des données de toutes les parties concernées. Le but est de vérifier des propriétés de sécurité sur les données dans des systèmes distribués, qui induisent un certain nombre d’incertitudes par construction.
Pour cela, vous élaborerez une méthodologie outillée pour la protection des données des acteurs du réseau électrique. L'approche sera basée sur les méthodes formelles de vérification à l'exécution appliquées à un système de contrôle distribué.

Cette offre de postdoc s'inscrit dans le cadre du projet TASTING qui vise à relever les principaux défis liés à la modernisation et à la sécurisation des systèmes électriques. Ce projet de 4 ans qui a commencé en 2023 adresse l’axe 3 de l'appel PEPR TASE "Solutions technologiques pour la numérisation des systèmes énergétiques intelligents", co-piloté par le CEA et le CNRS. Les défis scientifiques ciblés concernent l'infrastructure TIC, considérée comme un élément clé et un fournisseur de solutions pour les transformations profondes que nos infrastructures énergétiques subiront dans les décennies à venir.
Dans ce projet sont impliqués deux organismes nationaux de recherche, INRIA et le CEA au travers de son institut de recherche technologique de la direction de la recherche technologique CEA-List. Sont également impliqués 7 laboratoires académiques : le G2Elab, le GeePs, l’IRIT, le L2EP, le L2S et le SATIE, ainsi qu’un partenaire industriel, RTE, qui fournit différents use cases.

Modélisation avancée d’écoulements turbulents thermiques

Les simulations numériques en mécanique des fluides contribuent au travail de conception et de garantie des installations industrielles depuis plusieurs décennies. Parmi les nombreux sujets à l’interface entre recherche et industrie, la modélisation de la turbulence a connu de nombreuses évolutions tant dans les approches LES que RANS. Depuis le début des années 2010, des approches hybriques couplant méthodes RANS et LES ont émergé afin d’exploiter les bénéfices de chacune. Cela nécessite une bonne maîtrise des deux modelisations. Bien qu’en mesure de traiter ces deux types de modélisation, le code TrioCFD développé au STMF n’a pas bénéficié d’un investissement suffisant dans des modèles modernes. Permettre l’arrivée de modèles hybrides nécessitent donc un travail de consolidation et modernisation de l’existant.
Le travail proposé est d’identifier les modèles les plus pertinents à implémenter pour les configurations d’intérêt industriel. Un travail de structuration du logiciel sera nécessaire afin de permettre l’ajout de ces modèles, et leur validation.

Étude des spécificités des architectures très distribuées pour les besoins de décision et de contrôle

Nos infrastructures électriques ont connu et connaîtront encore de profondes mutations dans les prochaines décennies.
La croissance rapide de la part des énergies renouvelables dans la production d'électricité nécessite de trouver des solutions pour sécuriser les systèmes énergétiques notamment en ce qui concerne les aspects de variabilité, de stabilité et d'équilibrage du système électrique et de protection de l'infrastructure du réseau elle-même.
L'objet de cette étude est d'aider à concevoir de nouvelles méthodes de décision, spécialement adaptées aux architectures de contrôle hautement distribuées pour les réseaux d'énergie. Ces nouvelles méthodes devront être évaluées en terme de performance, de résilience, de robustesse et éprouvées en présence de différents aléas et même de byzantins.

Contrats publics et privés pour ACSL

Frama-C est une plateforme collaborative de l'analyse de programmes écrits en C. Cette plateforme comprend un langage de spécification nommé ACSL basé sur la notion de contrat. Ces contrats, fournis via des annotations dans le code, permettent de spécifier ce que l'on attend des différentes fonctions d'un programme. Il est ensuite possible de vérifier que le programme est conforme aux différents contrats à l'aide des analyseurs de la plateforme.
Une limitation actuelle des contrats vis-à-vis du langage C est qu'ils ne permettent pas facilement de spécifier des contrats différents (interne/privé, externe/public) pour des modules d'un système lorsque ceux-ci cachent les détails d'implémentation aux modules utilisateurs. Pour cela, une différenciation entre contrat public et contrat privé est nécessaire, mais également les moyens de faire le lien entre les deux pour assurer la cohérence globale de la spécification et de l'analyse.

Apprentissage de règles causales

Dans le cadre d’un projet qui concerne la création de matériaux innovants, nous souhaitons renforcer notre plateforme dans sa capacité à apprendre à partir de peu de données expérimentales.
En particulier, nous souhaitons travailler dans un premier temps sur l’extraction de liens causaux entre les paramètres de fabrication et la propriété. L’extraction de causalité est un sujet de très grande importance en IA aujourd’hui et nous souhaitons adapter les approches existantes aux données expérimentales et leurs particularités afin de sélectionner les variables d’intérêt. Dans un second temps, nous nous intéresserons à partir de ces liens causaux, à leur caractérisation (inférence causale) par une approche à base de règles floues, c’est-à-dire que nous créerons des règles floues adapter à leur représentation.

Développement d'approches pour l'intelligence artificielle à base de bruit

Les approches actuelles de l'IA sont largement basées sur la multiplication matricielle. Dans le de ce projet postdoccadre toral, nous aimerions poser la question suivante : quelle est la prochaine étape ? Plus précisément, nous aimerions étudier si le bruit (stochastique) pourrait être la primitive computationnelle sur laquelle la nouvelle génération d'IA est construite. Nous répondrons à cette question en deux étapes. Tout d'abord, nous explorerons les théories concernant le rôle computationnel du bruit microscopique et au niveau du système dans les neurosciences, ainsi que la façon dont le bruit est de plus en plus exploité dans l'intelligence artificielle. Nous visons à établir des liens concrets entre ces deux domaines et, en particulier, nous explorerons la relation entre le bruit et la quantification de l'incertitude.
Sur cette base, le chercheur postdoctorant développera ensuite de nouveaux modèles qui exploitent le bruit pour effectuer des tâches cognitives, dont l'incertitude est une composante intrinsèque. Cela ne servira pas seulement comme une approche d'IA, mais aussi comme un outil informatique pour étudier la cognition chez les humains et aussi comme un modèle pour des zones spécifiques du cerveau connues pour participer à divers aspects de la cognition, de la perception à l’apprentissage, la prise de décision et la quantification de l'incertitude.
Les perspectives du projet postdoctoral devraient informer sur la manière dont l'imagerie IRMf et les enregistrements électrophysiologies invasifs et non invasifs peuvent être utilisés pour tester les théories de ce modèle. En outre, le candidat devra interagir avec d'autres activités du CEA liées au développement d'accélérateurs d'IA analogiques basés sur le bruit.

Hybridation de LLMs pour l’ingénierie des exigences

Le développement de systèmes physique ou numériques est un processus complexe mêlant des défis techniques et humains. La première étape consiste à donner corps aux idées en rédigeant des spécifications ou un cahier des charges du système en devenir. Généralement écrits en langage naturel par des analystes fonctionnels (business analysts), ces documents sont des pièces maîtresses qui lient toutes les parties prenantes pendant toute la durée du projet et facilite le partage et la compréhension de ce qu’il faut faire. L’ingénierie des exigences propose diverses techniques (revues, modélisation, formalisation, etc.) pour réguler ce processus et améliorer la qualité (cohérence, complétude, etc.) des exigences produites, dans le but de détecter et corriger les défauts avant même l’implémentation du système.
Dans le domaine de l’ingénierie des exigences, l’arrivée récente des réseaux de neurones à très grands modèles (LLM) a la capacité de « changer la donne » [4]. Nous proposons de soutenir le travail de l’analyste fonctionnel avec un outil qui facilite et fiabilise la rédaction du référentiel d'exigences. L’outil exploitera un agent conversationnel de type transformeur/LLM (tels que ChatGPT ou Lama) combiné à des méthodes rigoureuses d'analyse et de conseil. Il proposera des options de réécriture des exigences dans un format compatible avec les normes INCOSE ou EARS, analysera les résultats produits par le LLM, et fournira un audit de qualité des exigences.

Moonshot robotique : jumeau numérique d’un procédé de découpe laser et mise en œuvre avec un robot auto-apprenant

Un des principaux challenges au déploiement de la robotique dans l’industrie est de proposer des robots intelligents, capables de comprendre le contexte dans lequel ils évoluent et facilement programmables sans compétences avancées en robotique et en informatique. Afin de permettre à un opérateur non expert de définir des tâches réalisées ensuite par un robot, le CEA développe différents outils : interface de programmation intuitive, apprentissage par démonstration, skill-based programming, interface avec la simulation interactive …
Lauréat de l’appel à projet « moonshot » des Missions Numériques du CEA le projet « Robot auto-apprenant » propose d’apporter des ruptures très significatives pour la robotique du futur en lien avec la simulation. Un démonstrateur intégrant ces briques technologiques est attendu sur plusieurs cas d’usages dans différents centres CEA.
Cette offre de post-doc concerne la mise en œuvre du démonstrateur CEA/DES (Direction des Energies)sur le cas d’usage de la découpe laser sous contraintes pour l'A&D au Laboratoire de Simulation et des Techniques de Démantèlement (LSTD) au CEA Marcoule.

Accélération par GPU d'un code de dynamique des gaz préexistant.

Le code Triclade, développé au CEA-DAM, est un code DNS tridimensionnel écrit en C++ MPI résolvant les équations de Navier-Stockes compressibles pour un mélange binaire de gaz parfaits sur des maillages cartésiens. Il est utilisé, en particulier, pour simuler le mélange turbulent se produisant aux interfaces entre fluides sous l'effet d'instabilités hydrodynamiques.

Le(a) candidat(e) aura pour tâche l'amélioration des performances de l'application en mettant en place un nouveau degré de parallélisme basé sur une programmation sur carte graphique (GPU). Le code ainsi produit devra réduire au mieux la divergence entre les approches CPU et GPU, en permettant notamment d'unifier les appels aux fonctions calculatoires de manière à masquer l'utilisation explicite des accélérateurs. Pour ce faire, il (elle) pourra se baser sur une API existante (telle que Kokkos), ou, suivant les besoins, des directives de précompilations (telles que OpenMP). Le(a) candidat(e) sera amené(e) à collaborer fortement avec plusieurs autres équipes travaillant autour de l'accélération GPU.
Une bonne connaissance de la programmation C/C++, des systèmes distribués (calculateurs) ainsi que de la programmation sur carte graphique seront nécessaires à la concrétisation de ces objectifs. Des connaissances en mécanique des fluides seraient appréciées.

Développement et optimisation de techniques de rafinement de maillage adaptatif (AMR) pour des problèmes d'intéraction fluide/structure dans un contexte de calcul haute performance

Le CEA développe actuellement un nouveau code de simulation pour la mécanique des structures et des fluides compressibles : Manta. Ce code a pour double objectif d'unifier les fonctionnalités des codes historiques implicite et explicite du CEA et d'être nativement orienté vers le calcul intensif. Grâce à de nombreuses méthodes numériques (éléments finis, volumes finis, résolutions de problèmes implicites ou explicites, ...), Manta permet de simuler différents types de problèmes mécaniques dynamiques ou statiques pour la structure et le fluide, ainsi que l'interaction fluide-structure.

Dans le cadre de la recherche d'optimisation et de gain en temps de calcul, une des techniques incontournables pour améliorer la précision des solutions tout en maîtrisant les coûts de calcul est l'adaptation dynamique du maillage (ou AMR pour « Adaptive Mesh Refinement »).

Ce postdoc s'attache à la définition et à la mise en œuvre d'algorithmes d'AMR dans un contexte de calcul haute performance pour des problèmes faisant intervenir des fluides et des structures en intéraction.

Une tâche préliminaire consistera à implémenter des fonctionnalités de raffinement de maillage hiérarchique dans Manta (sous-découpage/fusion de cellules, transferts des champs, critères de raffinement, création de liaisons pour les « hanging-nodes »). Ces travaux se feront si possible en s'appuyant sur des librairies externes.

Dans un second temps, il s'agira d'optimiser les performances des calculs parallèles à mémoire distribuée. En particulier, il sera essentiel de définir une stratégie d'équilibrage de charge entre les processus MPI, en particulier dans le cadre de problèmes d'intéraction fluide/structure.

Enfin, en particulier pour des calculs explicites, il faudra définir et mettre en œuvre des techniques d'adaptation du pas de temps en fonction du niveau de raffinement.

Ces deux derniers points donneront lieu à une ou plusieurs publications dans des revues spécialisées.

Top