Calcul de perturbations et sensibilités par méthodes de Monte Carlo
La théorie des perturbations/sensibilités au premier ordre vise uniquement le calcul de la réactivité du réacteur. De nombreux défis existent quant à la généralisation et à l’applicabilité des algorithmes de pondération par le flux adjoint à l’analyse de sensibilité d’observables physiques arbitraires (« sensibilités généralisées »). Le développement de cette thématique constitue un axe fondamental de recherche pour la simulation Monte Carlo, avec des retombées attendues pour les simulations de criticité dans le code Monte Carlo TRIPOLI-4. Le post-doc s’intéressera donc au développement et au test de méthodes novatrices pour le calcul d’observables physiques pondérées par le flux adjoint, telles que les formes linéaires ou bi-linéaires (paramètres cinétiques, perturbations, sensibilités et sensibilités généralisées) d’intérêt pour la physique des réacteurs.
Analyse de la qualité numérique de codes à l’aide de CADNA, Verificarlo et Verrou
Les codes de calcul reposent sur l’arithmétique à virgule flottante pour représenter des nombres réels et les opérations qui leur sont appliquées. Or les réels ne peuvent en général pas être représentés de manière exacte par des nombres flottants. La précision finie de l’arithmétique à virgule flottante conduit à des erreurs d’arrondi qui peuvent s’accumuler. Avec l’augmentation de la puissance de calcul, la complexification des algorithmes et le couplage d’applications, il est crucial de pouvoir quantifier la robustesse d’une application ou d’un algorithme.
Les outils CADNA [1], Verificarlo [2] et Verrou [3] permettent d’estimer la propagation d’erreurs d’arrondi et de mesurer la qualité numérique des résultats. L’objectif de ce travail est d’utiliser ces trois outils dans les applications GYSELA [4,5] (utilisée dans le domaine de la fusion pour caractériser la dynamique des turbulences dans le plasma des Tokamaks) et PATMOS [6] (mini-application représentative d’un code de transport neutronique Monte Carlo) afin d’analyser la robustesse numérique de ces applications ou de certains de leurs algorithmes. Outre l’analyse de la qualité numérique des résultats, ces outils seront aussi utilisés afin d’évaluer s’il est possible de dégrader la précision (simple ou demi-précision au lieu de double) pour certains algorithmes permettant des gains sur l’empreinte mémoire et/ou les performances (vectorisation, taille des communications). Au-delà des enseignements sur les deux codes analysés, un second objectif est la mise en place d’une méthodologie qui pourrait s’appliquer à d’autres codes de calcul tirant parti des complémentarités de ces trois outils.
Agent Conversationnel pour les Jeux Sérieux en Médecine
Le laboratoire LVIC participe à un projet de recherche dont l’objectif est de développer des outils innovants d’enseignement destinés à des étudiants en médecine. La formation se fera par l’intermédiaire de jeux sérieux de seconde génération, dans lesquels l’apprenant pourra interagir directement avec l’environnement :
- en immersion dans un environnement 3D grâce à un casque de Réalité Virtuelle et à la détection de ses mouvements,
- avec une manipulation naturelle et écologique de l’environnement (instruments, patient…),
- ainsi qu’une interaction vocale avec des avatars autonomes conversationnels et émotionnels.
L’équipe multimédia du laboratoire participe au projet pour développer des outils permettant aux étudiants d’interagir en langage naturel avec les avatars conversationnels.
Dans ce cadre, le travail du post-doctorant consistera plus particulièrement à :
- faire l’étude de l’art des agents conversationnels ;
- comprendre et maîtriser les briques technologiques du laboratoire en traitement automatique des langues ;
- proposer et développer un système de dialogue permettant l’interaction en langage naturel avec les avatars conversationnels du projet.
Application de l’ingénierie des ontologies et des connaissances à l’ingénierie de systèmes complexes
L’ingénierie système basée sur les modèles repose sur l’utilisation de diverses descriptions formelles du système pour effectuer des prévisions, des analyses, des automatisations, des simulations, etc. Cependant, ces descriptions sont principalement réparties dans des silos hétérogènes. L’analyse et l’exploitation de l’information sont confinées à leurs silos et manquent ainsi la vue d’ensemble. Les informations et idées transversales restent cachées.
Pour résoudre ce problème, les ontologies et les techniques d’ingénierie des connaissances offrent des solutions souhaitables reconnues par les travaux universitaires. Ces techniques et paradigmes aident notamment à donner accès à un jumeau numérique complet du système grâce à leurs capacités de fédération, à donner un sens à l’information en l’intégrant aux connaissances formelles existantes et à explorer et découvrir des incohérences grâce aux capacités de raisonnement.
L’objectif de ce travail sera de proposer une approche donnant accès à un jumeau numérique complet fédéré avec les technologies d’ingénierie de la connaissance. Les opportunités et les limites de l’approche seront évaluées sur des cas d’utilisation industrielle.
Solution d’accélération combinée logicielle et matérielle pour les algorithmes de recherche opérationnelle
Le but de ce post-doctorat est de préparer la prochaine génération de solveurs RO. Nous proposons donc d’étudier la possibilité de l’accélération matérielle à base de FPGA pour exécuter certains blocs ou la totalité des algorithmes de RO [4,5]. Les blocs pour lesquelles une telle solution n’est pas efficace peuvent être parallélisés et exécutés sur une plate-forme de calcul standard. L’environnement d’exécution proposé correspondra donc à une plateforme de calcul qui intégrera des FPGA. L’accès à cette plateforme nécessitera un ensemble d’outils. Ces outils doivent offrir des fonctionnalités telles que (a) l’analyse et la pré-compilation d’une entrée ou d’un problème ou sous-problème de RO par exemple, (b) le partitionnement HW / SW et l’optimisation de logique dédiée et enfin (c) la génération d’un exécutable logiciel et un bitstream.
La première étape sera donc de trouver les algorithmes de RO qui peuvent se prêtent bien à l’accélération matérielle. Une analyse et une classification des différents algorithmes de RO sont ainsi nécessaires. Nous proposerons ensuite, des méthodologies de partitionnement HW / SW pour les différentes classes d’algorithmes.
Les résultats obtenus seront implémentés pour donner lieu à un prototype de compilation qui à partir d’une instance RO va générer un exécutable logiciel et un bitstream. Ces derniers seront implémentés et exécutés sur une plateforme de calcul munie de FPGA afin d’évaluer le gain en performance et l’impacte sur la consommation énergétique de la solution que nous proposons.
Mise en place d’une plateforme d’apprentissage par démonstration adaptée au cas industriel
Ce projet a pour objectif de développer un démonstrateur intégrant les technologies à l’état de l’art et le tester sur un cas d’usage représentatif du monde industriel. Ce projet s’inscrit dans la grappe globale d’apprentissage par démonstration.
Le démonstrateur sera constitué d’un bras robotique / cobotique couplé à un/des capteurs d’acquisition (type RGBD). Ce dispositif sera positionné dans un espace constitué d’un rack / étagère contenant des objets/pièces de formes et qualités diverses (matières, densités, couleurs …) en face duquel sera disposé un prototype de convoyeur typique d’installations industrielles. L’archétype de tâche à réaliser par le démonstrateur sera de type « pick and place » où un objet devra être récupéré en étagère puis disposé sur le convoyeur.
Ce type de démonstrateur sera plus proche des conditions réelles d’utilisation que les exemples « jouets » utilisés dans le domaine académique.
Ce démonstrateur se focalisera dans un premier temps sur l’opérabilité à court terme basée sur des briques à l’état de l’art de la technologie tant matérielle que logicielle, pour un cas d’usage représentatif du monde industriel.
Il sera donc moins basé sur la modification ou l’évolution des algorithmes utilisés que sur l’adaptation des paramètres, l’ajout de connaissances a priori dépendantes du contexte permettant de réduire l’espace d’entrée, etc.
Interprétation de grilles d’occupation 3D par réseaux de neurones
Ce sujet s’inscrit dans le contexte du développement des véhicules/drones/robots autonomes.
L’environnement du véhicule est représenté par une grille d’occupation 3D, dans laquelle chaque cellule contient la probabilité de présence d’un objet. Cette grille est réactualisée au fil du temps, grâce aux données capteurs (Lidar, Radar, Camera).
Les algorithmes de plus haut niveau (path planning, évitement d’obstacle, …) raisonnent sur des objets (trajectoire, vitesse, nature). Il faut donc extraire ces objets de la grille d’occupation : clustering, classification, et tracking.
De nombreux travaux abordent ces traitements dans un contexte vision, en particulier grâce au deep learning. Ils montrent par contre une très grande complexité calculatoire, et ne tirent pas parti des spécificités des grilles d’occupation (absence de textures, connaissance a priori des zones d’intérêt ...). On souhaitent trouver des techniques plus adaptées à ces particularités et plus compatibles avec une implémentation plus économe en calcul.
L’objectif du post-doc est de déterminer, à partir d’une suite de grilles d’occupation, le nombre et la nature des différents objets, leur position et vecteur vitesse, en exploitant les récentes avancées du deep Learning sur les données 3D non structurées.
Planification distribuée optimale de ressources énergétiques. Application aux réseaux de chaleur.
Les réseaux de chaleur en France alimentent plus d’un million de logements et délivrent une quantité de chaleur égale à environ 5% de la chaleur consommée par le secteur résidentiel et tertiaire. De ce fait, ils représentent un potentiel important pour l’introduction massive d’énergies renouvelables et de récupération. Cependant, les réseaux de chaleur sont des systèmes complexes qui doivent gérer un grand nombre de consommateurs et de producteurs d’énergie, répartis dans un environnement géographique étendu et fortement ramifié. Dans le cadre d’une collaboration entre le CEA-LIST et le CEA-LITEN, le projet STRATEGE vise à une gestion dynamique et optimisée des réseaux de chaleur. Nous proposons une approche pluridisciplinaire, qui intègre à la fois la gestion avancée du réseau par les Systèmes Multi-Agents (SMA) et la modélisation multi-physique simplifiée (hydraulique et thermique) du transport et de la valorisation de l’énergie calorifique sur Modelica.
Il s’agit de concevoir des mécanismes de planification et d’optimisation pour l’allocation de ressources de chaleur. Ces mécanismes devront intégrer les descriptions en provenance d’un Système d’Information Géographique et les prédictions de consommation, production et pertes en ligne calculées grâce aux modèles physiques simplifiés. On prendra ainsi en compte plusieurs caractéristiques du réseau : le caractère continu et dynamique de la ressource ; des sources avec des comportements, des capacités et des coûts de production différents ; la dépendance de la consommation/production à des aspects externes (météo, prix de l’énergie) ; les caractéristiques internes du réseau (pertes, capacité de stockage). Les algorithmes développés seront implémentés sur une plateforme de pilotage multi-agent existante et constitueront la brique principale d’un moteur d’aide à la décision pour la gestion des réseaux de chaleur qui devra fonctionner en environnement simulé et dans un deuxième temps en ligne sur un système réel.
Génération de mouvements réalistes de systèmes anthropomorphes
Le sujet de s’inscrit dans le thème de l’Humain Numérique pour l’industrie manufacturière (plus précisément, pour la conception, la maintenance, la formation des opérateurs, la conception et l’ergonomie du poste de travail,…), la santé (conception des postes opératoire, la réhabilitation,…) ou l’industrie du divertissement (l’animation pour le jeu, le cinéma,…).
Partant des compétences et développements complémentaires de l’équipe Gepetto du LAAS et du CEA LIST, en termes de planification de trajectoires (HPP), de commande dynamique de mouvements des systèmes anthropomorphes, l’objectif du post doc consiste à combiner deux approches, l’une globale, traitant principalement des contraintes et caractéristiques géométriques et quasi-statiques, l’autre locale, traitant de la dynamique et prenant en compte des caractéristiques du mouvement humain (primitives motrices, minimisation de critères de coût, etc…).
Maitrise et gestion de l’évolution des modèles
La conception de systèmes de plus en plus complexes nécessite de mettre en place de nouveaux paradigmes pour faire face à tous les nouveaux défis soulevé comme par exemple améliorer la sureté et la sécurité des systèmes, tout en réduisant les temps et le coût de mise sur le marché. Les paradigmes promus par l’ingénierie des modèles, principalement les notions de modèles actifs et de transformations de modèles, sont des solutions efficaces pour traiter de ces questions. Toutefois, tel que souligné par les travaux présentés dans la série d’ateliers internationaux sur les modèle et l’évolution (www.modse.fr), l’évolution des modèles, voire la coévolution des modèles, et la gestion de la cohérence entre les modèles deviennent alors des activités cruciales pour faire face aux changements naturels de tout système. En fait, il y a un besoin croissant pour des techniques plus disciplinés et des outils d’ingénierie sous-jacent pour résoudre les problèmes liés à l’évolution des modèles, comme par exemple, l’évolution du système guidé par le modèle, la différence de modèles, la comparaison des modèles, le refactoring de modèle, la gestion des incohérences, la gestion des versions des modèles, etc.
Dans le cadre de ce projet, le LISE veux en particulier examiner les problèmes liés à l’évolution des modèles sous les deux perspectives suivantes:
- La première question est de permettre aux modeleurs de gérer l’évolution de leurs modèles. On devrait être en mesure de suivre les changements qui ont été effectués dans un modèle en fournissant par exemple un mode de "suivi des modifications" dans l’environnement de modélisation.
- La deuxième question concerne le problème de la gestion des versions du modèle. Les utilisateurs ont besoin ici pour gérer et utiliser plusieurs versions de leurs modèles dans un esprit de collaboration.