Génération de mouvements réalistes de systèmes anthropomorphes

Le sujet de s’inscrit dans le thème de l’Humain Numérique pour l’industrie manufacturière (plus précisément, pour la conception, la maintenance, la formation des opérateurs, la conception et l’ergonomie du poste de travail,…), la santé (conception des postes opératoire, la réhabilitation,…) ou l’industrie du divertissement (l’animation pour le jeu, le cinéma,…).

Partant des compétences et développements complémentaires de l’équipe Gepetto du LAAS et du CEA LIST, en termes de planification de trajectoires (HPP), de commande dynamique de mouvements des systèmes anthropomorphes, l’objectif du post doc consiste à combiner deux approches, l’une globale, traitant principalement des contraintes et caractéristiques géométriques et quasi-statiques, l’autre locale, traitant de la dynamique et prenant en compte des caractéristiques du mouvement humain (primitives motrices, minimisation de critères de coût, etc…).

Maitrise et gestion de l’évolution des modèles

La conception de systèmes de plus en plus complexes nécessite de mettre en place de nouveaux paradigmes pour faire face à tous les nouveaux défis soulevé comme par exemple améliorer la sureté et la sécurité des systèmes, tout en réduisant les temps et le coût de mise sur le marché. Les paradigmes promus par l’ingénierie des modèles, principalement les notions de modèles actifs et de transformations de modèles, sont des solutions efficaces pour traiter de ces questions. Toutefois, tel que souligné par les travaux présentés dans la série d’ateliers internationaux sur les modèle et l’évolution (www.modse.fr), l’évolution des modèles, voire la coévolution des modèles, et la gestion de la cohérence entre les modèles deviennent alors des activités cruciales pour faire face aux changements naturels de tout système. En fait, il y a un besoin croissant pour des techniques plus disciplinés et des outils d’ingénierie sous-jacent pour résoudre les problèmes liés à l’évolution des modèles, comme par exemple, l’évolution du système guidé par le modèle, la différence de modèles, la comparaison des modèles, le refactoring de modèle, la gestion des incohérences, la gestion des versions des modèles, etc.
Dans le cadre de ce projet, le LISE veux en particulier examiner les problèmes liés à l’évolution des modèles sous les deux perspectives suivantes:
- La première question est de permettre aux modeleurs de gérer l’évolution de leurs modèles. On devrait être en mesure de suivre les changements qui ont été effectués dans un modèle en fournissant par exemple un mode de "suivi des modifications" dans l’environnement de modélisation.
- La deuxième question concerne le problème de la gestion des versions du modèle. Les utilisateurs ont besoin ici pour gérer et utiliser plusieurs versions de leurs modèles dans un esprit de collaboration.

Planification de consommation de ressources dans le cadre d’un éco-quartier

Les pratiques de production et de consommation d’énergie sont en pleine mutation. La naissance des éco-quartiers est ainsi une réalité qui s’inscrit dans la continuité de ces changements. Il s’agit de regrouper au sein d’un même territoire différentes entités consommatrices ou productrices d’énergie et de gérer à un niveau local les ressources énergétiques.

Parallèlement à ces évolutions, les foyers, les commerces et même les bureaux sont de plus en plus équipés de capteurs et d’appareils intelligents et communicants qui peuvent être contrôlés à distance. Il est donc envisageable de piloter ces appareils en tenant compte de plusieurs facteurs : le coût financier ou environnemental de l’énergie consommée, le respect du confort souhaité par les habitants et l’objectif visé par les administrateurs de l’éco-quartier.

De nombreux algorithmes ont été développés dans le but de planifier et de contrôler des appareils plus ou moins autonomes alors que les systèmes experts ont souvent été écartés, du fait de leur manque d’expressivité dans ce domaine.

Dans ce contexte il s’agit de vérifier si des systèmes experts flous permettent de planifier l’usage des appareils consommateurs d’une ressource d’énergie.

Génération automatique de générateurs dynamiques de code à partir de code legacy

Contexte
========
Notre laboratoire développe une technologie pour la génération dynamique de code autour de l’outil deGoal, destiné à la conception de générateurs de code spécialisés appelés compilettes. Une compilette est embarquée dans une application afin de générer dynamiquement le code d’un kernel de calcul. Le fait de pouvoir générer dynamiquement le code d’un kernel permet de mettre en œuvre des optimisations qui sont par nature hors de portée d’un compilateur traditionnel : optimisations sur les données à traiter, et sur la connaissance du contexte d’exécution. En comparaison avec les outils de l’état de l’art (compilation dynamique, typiquement Java Just-In-Time compilation, et runtime optimizers), les compilettes ont une très faible empreinte mémoire et génèrent le code beaucoup plus rapidement.
Afin de fournir la meilleure performance d’exécution des kernels spécialisés avec des compilettes deGoal, les compilettes sont implantées à partir d’un langage dédié de haut niveau. Cette solution présente les meilleures garanties en termes de performance d’exécution, mais présente aussi l’inconvénient de nécessiter la réécriture de l’implantation de chaque kernel devant être optimisé dans une compilette. Pour l’industrie logicielle, cette contrainte peut constituer un frein majeur à l’adoption de notre technologie, parce que la minimisation des coûts de production logicielle passe en majorité par une réutilisation maximale des codes sources existants.

Objectif
========
L’objectif de ce travail est de construire un générateur automatique de compilettes capable de travailler à partir d’une base de code existante (typiquement, du code C ANSI), et pouvant s’intégrer à une chaîne de production de code utilisant les technologies traditionnelles de compilateur.

Allocation distribuée de ressources par les systèmes multi-agents. Application aux réseaux de chaleur

Les réseaux de chaleur en France alimentent plus d’un million de logements et délivrent une quantité de chaleur égale à environ 5% de la chaleur consommée par le secteur résidentiel et tertiaire. De ce fait, ils représentent un potentiel important pour l’introduction massive d’énergies renouvelables et de récupération. Cependant, les réseaux de chaleur sont des systèmes complexes qui doivent gérer un grand nombre de consommateurs et de producteurs d’énergie, répartis dans un environnement géographique étendu et fortement ramifié. Dans le cadre d’une collaboration entre le CEA-LIST et le CEA-LITEN, le projet SIGMA vise à une gestion dynamique et optimisée des réseaux de chaleur. Nous proposons une approche pluridisciplinaire, qui intègre à la fois la gestion avancée du réseau par les Systèmes Multi-Agents (SMA), la prise en compte des contraintes spatiales par des Systèmes d’Information Géographique (SIG) et la modélisation physique simplifiée du transport et de la valorisation de la chaleur.
Il s’agit de concevoir des mécanismes d’allocation dynamique de ressources de chaleur qui intègrent les descriptions en provenance du SIG et les prédictions de consommation, production et pertes calculées grâce aux modèles physiques. On prendra ainsi en compte plusieurs caractéristiques du réseau : le caractère continu et dynamique de la ressource ; des sources avec des comportements, des capacités et des coûts de production différents ; la dépendance de la consommation/production à des aspects externes (météo, prix de l’énergie) ; les caractéristiques internes du réseau (pertes, capacité de stockage). Le couplage avec le SIG permettra la mise en place de mécanismes d’auto-configuration de la gestion des différents réseaux et niveaux de granularité obtenus par réduction du SIG original. Le SMA devra établir de manière dynamique le lien entre les modèles simplifiés adaptés et le niveau de granularité souhaité et créer les agents nécessaires pour représenter le système.

Algorithmes en temps réel optimisés pour les Interfaces Cerveau-Machine à plusieurs degrés de liberté

Le sujet de recherche porte sur l’optimisation des algorithmes de l’Interface-Cerveau Machine (ICM) pour des applications médicales chez l’Homme (sujets tétraplégiques).
L’objectif principal pour le candidat post-doc sera d’optimiser/accélérer les calculs pour permettre l’utilisation de plusieurs degrés de libertés (jusqu’à 26) en temps réel. Le choix de caractéristiques appropriées pour les sous-ensembles permettra d’améliorer l’efficacité de calcul et la qualité du contrôle. Pour atteindre ce but, des modèles parcimonieux seront appliqués
Pour analyser les enregistrements ECoG en l’espace temps-fréquence-localisation, une transformée en ondelettes continue est utilisée. L’optimisation comprendra l’implémentation de transformée en ondelettes rapide ainsi que de code C++.
Le projet inclue aussi les tests et adaptations des algorithmes d’ICM à la transmission sans fil de des signaux avec l’implant WIMAGINE.
Finalement, l’adaptation des algorithmes pour l’environnement médical de sujets tétraplégiques (l’utilisation de tâches motrices imaginaires, la présence de stimuli dans le signal, la durée réduite des expériences) sera sous la responsabilité d’un post-doc.

Modélisation de composants et fonctions électroniques en environnement

L’objectif du travail sera de proposer une méthodologie de modélisation des composants élémentaires à semi-conducteur (transistors - diodes) prenant en compte leurs dégradations permanentes après irradiation ou les effets transitoires pendant l'irradiation. Ces modélisations seront d'abord réalisées au moyen de codes de simulation standard basés sur le langage Spice et sur des bibliothèques existantes de modèles fonctionnels des composants. Par la suite, des nouveaux modèles de composants seront à développer dans un environnement logiciel à définir pour parvenir à une simulation plus réaliste et optimisée des électroniques sous contraintes radiatives. Les données d’entrée seront issues de la littérature, d’expérimentations passées et d’expériences spécifiques à réaliser dans le cadre du post-doc. Une approche générique d'une méthode de caractérisation expérimentale sera à développer afin de déterminer les paramètres d'un modèle de composant dans un environnement radiatif donné. Les modèles radiatifs seront à valider pour différentes technologies de composants par comparaison entre la simulation et l'expérience.

Localisation et cartographie simultanée à l’aide d’une caméra RGB-D selon une méthode directe et éparse

Les récents progrès dans les méthodes de localisation d’un dispositif(smartphone, robot) par rapport à son environnement permettent d’envisager le déploiement de solutions de Réalité Augmentée et de robots autonomes. Dans ce contexte, l’intérêt des caméras RGB-D est notable puisqu’elles permettent d’obtenir directement la carte de profondeur de la scène perçue.

Dans le cadre de ce post doctorat, l’objectif sera de développer une méthode de Localisation et Cartographie Simultanée (ou SLAM pour Simultaneous Localisation and Mapping) exploitant une caméra RGB-D. Plus précisément, l’image de profondeur sera exploitée au travers d’une méthode éparse et directe, ceci afin d’obtenir une localisation robuste et précise tout en minimisant la consommation CPU et mémoire. Cette méthode sera alors combinées à la méthode dite de "SLAM Contraint à un modèle CAO" développées au laboratoire afin d’obtenir une solution finale de SLAM RGB-D Contraint à un modèle CAO.

Exploitation des méthodes formelles pour la gestion des interférences au sein des systèmes embarqués H/F

Au sein d’une équipe de recherche technologique pluridisciplinaire d’experts en outils de co-design SW/HW par application de méthodes formelles, vous intervenez dans un projet national de recherche visant à développer un environnement pour identifier, analyser et réduire les interférences engendrées par l’exécution concurrente d’applicatifs sur une plateforme matérielle multi-coeur hétérogène sur étagère (COTS)

Test d’intégration à base d’exécution symbolique pour les systèmes à base de composants

Le sujet concerne la mise en place de techniques de test pour les systèmes à base de composants logiciels. L’objectif est de maîtriser l’explosion combinatoire souvent subie à la phase de génération de test pour de tels systèmes. L’idée directrice des travaux est de tirer partie de la définition récursive des systèmes pour découper la phase de génération de test en plusieurs phases concernant, les composants d’une part, et les mécanismes de communication entre composants d’autre part, dans une logique "diviser pour régner" qui est classique en informatique. Le candidat se basera sur des travaux réalisé dans le laboratoire autour de techniques à base d’exécution symbolique pour la génération de test et l’analyse de comportement.

Top