Intelligence artificielle appliquée à l’analyse par faisceaux d’ions

Un contrat post-doctoral d’une durée d’un an est proposé conjointement par le laboratoire d’étude des éléments légers (LEEL, CEA/DRF) et le laboratoire de Sciences des Données et de la Décision (LS2D, DRT/LIST) et porte sur un développement logiciel dédié au traitement de données multispectrales basé sur des outils d’Intelligence Artificielle (IA) et plus particulièrement de machine learning, qui seront appliqués ici à l’analyse par faisceaux d’ions (Ion Beam Analysis : IBA).
Dans le cadre de ce projet, le candidat retenu aura à réaliser les tâches suivantes :
1- Conception d’un dictionnaire multi-spectral.
2- Apprentissage.
3- Ecriture du code principal.
4- Développement d’un module d’analyse de cartographies multispectrales.
5- Benchmarking.
Le post-doctorant sera accueilli et encadré au sein des laboratoires LEEL et LS2D.

Détection de cyber-attaques dans un capteur embarqué pour l’analyse de sols

Ce post-doc aura pour charge d’appliquer des techniques de « machine learning » pour la détection attaques sur un système de multiples capteur connectés. Le domaine applicatif concerne l’agriculture, pour lequel le CEA LETI réalise déjà plusieurs projets, dont le projet H2020 SARMENTI (Smart multi-sensor embedded and secure system for soil nutrient and gaseous emission monitoring). L’objectif de SARMENTI est de développer et valider un système multi-capteurs à basse consommation, sécurisé et connecté au « cloud, » qui permettra une analyse in situ et en temps–réel des nutriment et de la fertilité du sol afin de fournir une aide à la décision aux agriculteurs. Dans ce cadre, le post-doc aura la charge des analyses de cyber-sécurité, de déterminer les risques principaux sur ces capteurs connectés, mais également de la spécification du module de détection d’attaques. L’algorithme de détection sous-jacent sera basé sur la détection d’anomalie, par ex. « one class classifier. » Ce travail aura trois parties, l’implémentation des sondes qui analyseront des événements sélectionnés, l’infrastructure de communication entre les sondes et le détecteur, ainsi que le détecteur proprement dit.

Calcul de perturbations et sensibilités par méthodes de Monte Carlo

La théorie des perturbations/sensibilités au premier ordre vise uniquement le calcul de la réactivité du réacteur. De nombreux défis existent quant à la généralisation et à l’applicabilité des algorithmes de pondération par le flux adjoint à l’analyse de sensibilité d’observables physiques arbitraires (« sensibilités généralisées »). Le développement de cette thématique constitue un axe fondamental de recherche pour la simulation Monte Carlo, avec des retombées attendues pour les simulations de criticité dans le code Monte Carlo TRIPOLI-4. Le post-doc s’intéressera donc au développement et au test de méthodes novatrices pour le calcul d’observables physiques pondérées par le flux adjoint, telles que les formes linéaires ou bi-linéaires (paramètres cinétiques, perturbations, sensibilités et sensibilités généralisées) d’intérêt pour la physique des réacteurs.

Analyse de la qualité numérique de codes à l’aide de CADNA, Verificarlo et Verrou

Les codes de calcul reposent sur l’arithmétique à virgule flottante pour représenter des nombres réels et les opérations qui leur sont appliquées. Or les réels ne peuvent en général pas être représentés de manière exacte par des nombres flottants. La précision finie de l’arithmétique à virgule flottante conduit à des erreurs d’arrondi qui peuvent s’accumuler. Avec l’augmentation de la puissance de calcul, la complexification des algorithmes et le couplage d’applications, il est crucial de pouvoir quantifier la robustesse d’une application ou d’un algorithme.

Les outils CADNA [1], Verificarlo [2] et Verrou [3] permettent d’estimer la propagation d’erreurs d’arrondi et de mesurer la qualité numérique des résultats. L’objectif de ce travail est d’utiliser ces trois outils dans les applications GYSELA [4,5] (utilisée dans le domaine de la fusion pour caractériser la dynamique des turbulences dans le plasma des Tokamaks) et PATMOS [6] (mini-application représentative d’un code de transport neutronique Monte Carlo) afin d’analyser la robustesse numérique de ces applications ou de certains de leurs algorithmes. Outre l’analyse de la qualité numérique des résultats, ces outils seront aussi utilisés afin d’évaluer s’il est possible de dégrader la précision (simple ou demi-précision au lieu de double) pour certains algorithmes permettant des gains sur l’empreinte mémoire et/ou les performances (vectorisation, taille des communications). Au-delà des enseignements sur les deux codes analysés, un second objectif est la mise en place d’une méthodologie qui pourrait s’appliquer à d’autres codes de calcul tirant parti des complémentarités de ces trois outils.

Agent Conversationnel pour les Jeux Sérieux en Médecine

Le laboratoire LVIC participe à un projet de recherche dont l’objectif est de développer des outils innovants d’enseignement destinés à des étudiants en médecine. La formation se fera par l’intermédiaire de jeux sérieux de seconde génération, dans lesquels l’apprenant pourra interagir directement avec l’environnement :
- en immersion dans un environnement 3D grâce à un casque de Réalité Virtuelle et à la détection de ses mouvements,
- avec une manipulation naturelle et écologique de l’environnement (instruments, patient…),
- ainsi qu’une interaction vocale avec des avatars autonomes conversationnels et émotionnels.

L’équipe multimédia du laboratoire participe au projet pour développer des outils permettant aux étudiants d’interagir en langage naturel avec les avatars conversationnels.

Dans ce cadre, le travail du post-doctorant consistera plus particulièrement à :
- faire l’étude de l’art des agents conversationnels ;
- comprendre et maîtriser les briques technologiques du laboratoire en traitement automatique des langues ;
- proposer et développer un système de dialogue permettant l’interaction en langage naturel avec les avatars conversationnels du projet.

Application de l’ingénierie des ontologies et des connaissances à l’ingénierie de systèmes complexes

L’ingénierie système basée sur les modèles repose sur l’utilisation de diverses descriptions formelles du système pour effectuer des prévisions, des analyses, des automatisations, des simulations, etc. Cependant, ces descriptions sont principalement réparties dans des silos hétérogènes. L’analyse et l’exploitation de l’information sont confinées à leurs silos et manquent ainsi la vue d’ensemble. Les informations et idées transversales restent cachées.
Pour résoudre ce problème, les ontologies et les techniques d’ingénierie des connaissances offrent des solutions souhaitables reconnues par les travaux universitaires. Ces techniques et paradigmes aident notamment à donner accès à un jumeau numérique complet du système grâce à leurs capacités de fédération, à donner un sens à l’information en l’intégrant aux connaissances formelles existantes et à explorer et découvrir des incohérences grâce aux capacités de raisonnement.
L’objectif de ce travail sera de proposer une approche donnant accès à un jumeau numérique complet fédéré avec les technologies d’ingénierie de la connaissance. Les opportunités et les limites de l’approche seront évaluées sur des cas d’utilisation industrielle.

Solution d’accélération combinée logicielle et matérielle pour les algorithmes de recherche opérationnelle

Le but de ce post-doctorat est de préparer la prochaine génération de solveurs RO. Nous proposons donc d’étudier la possibilité de l’accélération matérielle à base de FPGA pour exécuter certains blocs ou la totalité des algorithmes de RO [4,5]. Les blocs pour lesquelles une telle solution n’est pas efficace peuvent être parallélisés et exécutés sur une plate-forme de calcul standard. L’environnement d’exécution proposé correspondra donc à une plateforme de calcul qui intégrera des FPGA. L’accès à cette plateforme nécessitera un ensemble d’outils. Ces outils doivent offrir des fonctionnalités telles que (a) l’analyse et la pré-compilation d’une entrée ou d’un problème ou sous-problème de RO par exemple, (b) le partitionnement HW / SW et l’optimisation de logique dédiée et enfin (c) la génération d’un exécutable logiciel et un bitstream.
La première étape sera donc de trouver les algorithmes de RO qui peuvent se prêtent bien à l’accélération matérielle. Une analyse et une classification des différents algorithmes de RO sont ainsi nécessaires. Nous proposerons ensuite, des méthodologies de partitionnement HW / SW pour les différentes classes d’algorithmes.
Les résultats obtenus seront implémentés pour donner lieu à un prototype de compilation qui à partir d’une instance RO va générer un exécutable logiciel et un bitstream. Ces derniers seront implémentés et exécutés sur une plateforme de calcul munie de FPGA afin d’évaluer le gain en performance et l’impacte sur la consommation énergétique de la solution que nous proposons.

Mise en place d’une plateforme d’apprentissage par démonstration adaptée au cas industriel

Ce projet a pour objectif de développer un démonstrateur intégrant les technologies à l’état de l’art et le tester sur un cas d’usage représentatif du monde industriel. Ce projet s’inscrit dans la grappe globale d’apprentissage par démonstration.
Le démonstrateur sera constitué d’un bras robotique / cobotique couplé à un/des capteurs d’acquisition (type RGBD). Ce dispositif sera positionné dans un espace constitué d’un rack / étagère contenant des objets/pièces de formes et qualités diverses (matières, densités, couleurs …) en face duquel sera disposé un prototype de convoyeur typique d’installations industrielles. L’archétype de tâche à réaliser par le démonstrateur sera de type « pick and place » où un objet devra être récupéré en étagère puis disposé sur le convoyeur.
Ce type de démonstrateur sera plus proche des conditions réelles d’utilisation que les exemples « jouets » utilisés dans le domaine académique.
Ce démonstrateur se focalisera dans un premier temps sur l’opérabilité à court terme basée sur des briques à l’état de l’art de la technologie tant matérielle que logicielle, pour un cas d’usage représentatif du monde industriel.
Il sera donc moins basé sur la modification ou l’évolution des algorithmes utilisés que sur l’adaptation des paramètres, l’ajout de connaissances a priori dépendantes du contexte permettant de réduire l’espace d’entrée, etc.

Interprétation de grilles d’occupation 3D par réseaux de neurones

Ce sujet s’inscrit dans le contexte du développement des véhicules/drones/robots autonomes.
L’environnement du véhicule est représenté par une grille d’occupation 3D, dans laquelle chaque cellule contient la probabilité de présence d’un objet. Cette grille est réactualisée au fil du temps, grâce aux données capteurs (Lidar, Radar, Camera).
Les algorithmes de plus haut niveau (path planning, évitement d’obstacle, …) raisonnent sur des objets (trajectoire, vitesse, nature). Il faut donc extraire ces objets de la grille d’occupation : clustering, classification, et tracking.
De nombreux travaux abordent ces traitements dans un contexte vision, en particulier grâce au deep learning. Ils montrent par contre une très grande complexité calculatoire, et ne tirent pas parti des spécificités des grilles d’occupation (absence de textures, connaissance a priori des zones d’intérêt ...). On souhaitent trouver des techniques plus adaptées à ces particularités et plus compatibles avec une implémentation plus économe en calcul.
L’objectif du post-doc est de déterminer, à partir d’une suite de grilles d’occupation, le nombre et la nature des différents objets, leur position et vecteur vitesse, en exploitant les récentes avancées du deep Learning sur les données 3D non structurées.

Planification distribuée optimale de ressources énergétiques. Application aux réseaux de chaleur.

Les réseaux de chaleur en France alimentent plus d’un million de logements et délivrent une quantité de chaleur égale à environ 5% de la chaleur consommée par le secteur résidentiel et tertiaire. De ce fait, ils représentent un potentiel important pour l’introduction massive d’énergies renouvelables et de récupération. Cependant, les réseaux de chaleur sont des systèmes complexes qui doivent gérer un grand nombre de consommateurs et de producteurs d’énergie, répartis dans un environnement géographique étendu et fortement ramifié. Dans le cadre d’une collaboration entre le CEA-LIST et le CEA-LITEN, le projet STRATEGE vise à une gestion dynamique et optimisée des réseaux de chaleur. Nous proposons une approche pluridisciplinaire, qui intègre à la fois la gestion avancée du réseau par les Systèmes Multi-Agents (SMA) et la modélisation multi-physique simplifiée (hydraulique et thermique) du transport et de la valorisation de l’énergie calorifique sur Modelica.
Il s’agit de concevoir des mécanismes de planification et d’optimisation pour l’allocation de ressources de chaleur. Ces mécanismes devront intégrer les descriptions en provenance d’un Système d’Information Géographique et les prédictions de consommation, production et pertes en ligne calculées grâce aux modèles physiques simplifiés. On prendra ainsi en compte plusieurs caractéristiques du réseau : le caractère continu et dynamique de la ressource ; des sources avec des comportements, des capacités et des coûts de production différents ; la dépendance de la consommation/production à des aspects externes (météo, prix de l’énergie) ; les caractéristiques internes du réseau (pertes, capacité de stockage). Les algorithmes développés seront implémentés sur une plateforme de pilotage multi-agent existante et constitueront la brique principale d’un moteur d’aide à la décision pour la gestion des réseaux de chaleur qui devra fonctionner en environnement simulé et dans un deuxième temps en ligne sur un système réel.

Top