Développement d'algorithmes d'intelligence artificielle pour la localisation bande étroite

Les signaux bande étroite sont largement utilisés dans le contexte des réseaux de télécommunication faible consommation, qui sont l’un des composants clé de l’internet des objets (IoT). Cependant, ces signaux ne disposant que d’une bande de fréquence limitée, ils sont peu adaptés à de la localisation de précision, en particulier dans des environnements complexes tels que centre-ville ou des canyons urbains qui perturbent fortement le trajet de l’onde. Une approche permettant de surmonter ces difficultés consiste à s’appuyer sur un modèle 3D de la ville et de ses bâtiments afin d’améliorer la modélisation de la propagation cependant les algorithmes classiques (lancés de rayons par ex.) ont montré leurs limites pour répondre à un problème aussi complexe. Afin de dépasser les limitations actuelles, le laboratoire LCOI souhaite explorer les approches à base d’intelligence artificielle (IA) qui semblent très pertinentes pour ce type de problèmes. Le laboratoire LCOI a déployé un réseau bande étroite dans la ville de Grenoble et démarré une large collecte de mesure afin de supporter ces études.
En s’appuyant sur l’analyse de la littérature existante ainsi que sur les connaissances acquises au sein du laboratoire, le candidat devra
- Superviser et contribuer à la campagne de mesures
- Exploiter les données collectées afin de mieux comprendre les caractéristiques de propagation des signaux bande étroite dans différents environnements
- Développer une chaine de simulation de la propagation des signaux
- Affiner les calculs de borne de performance d’une localisation bande étroite
- Développer des algorithmes de localisation utilisant l’intelligence artificielle ainsi que la topologie 3D, et les comparer à ceux de l’état de l’art
- Contribuer des projets au travers de son travail de recherche
- Publier son travail dans des conférences et des journaux de qualité

Décodeur neuronal auto-adaptatif pour une interface cerveau-moelle épinière clinique

Le CEA/LETI/CLINATEC lance un appel à candidatures pour un poste postdoctoral pour travailler sur le projet HORIZON-EIC. L'objectif du projet est d'explorer de nouvelles solutions de réhabilitation et de suppléance fonctionnelle pour les personnes en situation de handicap moteurs graves en utilisant une interface cerveau-machine (ICM) auto-adaptative. Les neuroprothèses enregistrent et décodent le signal neuronal cérébral pour activer des effecteurs (exosquelette, stimulateur de moelle épinière implantable, etc.) directement sans passage de commande de contrôle physiologique interrompu par une lésion de la moelle épinière. Un ensemble d'algorithmes pour décoder l'activité neuronale enregistrée au niveau du cortex cérébral (Electrocorticogram) a été développé à CLINATEC et testé dans le cadre de 2 protocoles de recherche clinique chez des tétraplégiques à Grenoble et chez des paraplégiques à Lausanne. Le postdoctorant contribuera aux prochaines avancées scientifiques ambitieuses répondant aux besoins médicaux des patients. L'amélioration cruciale de la convivialité peut être obtenue en atténuant le besoin d'un recalibrage constant du décodeur ICM en introduisant un cadre auto-adaptatif pour l’apprentissage du décodeur de manière incrémentale pendant l'utilisation des neuroprothèses autonome. L'ICM auto-adaptative (A-ICM) ajoute une boucle supplémentaire évaluant le niveau de cohérence entre les mouvements prévus de l'utilisateur et les actions effectuées à partir des données neuronales. Cette boucle peut fournir l’information sur les tâches ICM (labels) aux données enregistrées lors de l'utilisation autonome de la neuroprothèse. Les données labélisées peuvent être utilisées ensuite pour la mise à jour du décodeur en temps réel. Le décodeur neuronal innovant sera exploré et testé hors ligne et en temps réel dans le cadre d'essais cliniques en cours.

Simulation d'un milieu poreux soumis à des impacts à haute vitesse

La maîtrise de la réponse dynamique de matériaux complexes (mousse, céramique, métal, composite) suite à des sollicitations intenses (dépôt d’énergie, impact hyper-véloce) est un enjeu majeur pour de nombreuses applications développées et conduites par la Direction des Applications Militaires (DAM) du Commissariat à l’Energie Atomique et aux Energies Alternatives (CEA). Dans cette optique, le CEA CESTA développe des modélisations mathématiques du comportement de matériaux face à des impacts hypervéloces. Ainsi, dans le cadre de l’ANR ASTRID SNIP (Simulation Numérique des Impacts dans les milieux poreux) en collaboration avec l’IUSTI (Université Aix-Marseille), des études sur le thème de la modélisation des matériaux poreux sont menées. Elles ont pour objectif d’aboutir à l’élaboration de modèles innovants plus robustes et palliant les déficits théoriques des méthodes existantes (consistance thermodynamique, préservation du principe d’entropie) Dans le cadre de ce post-doc, le candidat devra effectuer, dans un premier temps, une revue bibliographique pour comprendre les méthodes et modèles développés au sein de l’IUSTI et du CEA CESTA et comprendre leurs différences. Dans un second temps, il étudiera la compatibilité entre le modèle développé à l’IUSTI et les méthodes de résolution numériques utilisées dans le code de calcul de dynamique rapide du CEA CESTA. Il proposera des adaptations et des améliorations de ce modèle pour prendre en compte l’ensemble des phénomènes physiques que l’on souhaite capturer (plasticité, contraintes de cisaillement, présence d’inclusions fluides, endommagement) et rendre son intégration dans le code de calcul possible. Après une phase de développement, la validation de l’ensemble de ces travaux sera effectuée via des comparaisons avec les modèles physico-numériques existants ainsi que la confrontation avec les résultats expérimentaux d’impacts issus de la littérature et/ou effectués au CEA/DAM.

Traitement SLAM pour la navigation aidée par le terrain (Simultaneous Localization and Mapping)

Le post-doctorat se situe dans le contexte d’essais en vol d’un véhicule instrumenté (navette spatiale, capsule ou sonde) qui rentre dans l'atmosphère. Il s’agit de reconstruire, à partir de mesures (centrale inertielle, radar, ballon météorologique, etc.), la trajectoire et diverses quantités d'intérêt, afin de mieux comprendre les phénomènes physiques et de valider les modèles prédictifs. On s’est orienté vers des statistiques bayésiennes, associées à des méthodes par chaînes de Markov Monte Carlo (MCMC). Le post-doctorant aura pour mission de développer et d’étendre l'approche proposée, dans le cadre d'une collaboration scientifique avec Audrey Giremus, professeur à l’Université de Bordeaux et spécialiste du domaine. On cherchera en particulier à accroitre les performances d’échantillonnage en grande dimension. Une attention particulière sera portée à la problématique d'apprentissage automatique constituée par l'exploitation d'une base de données aérologiques. L'objectif final sera d'aboutir à un prototype évolutif qui, dédié à l'analyse post-vol des essais en vol, exploite les différentes sources d'information et les incertitudes associées. Les évaluations porteront sur des données simulées et réelles, avec comparaison à des outils existants. On s'efforcera de valoriser le travail par des communications et publications scientifiques.

Développement et application des méthodes de quantification inverse d'incertitudes pour la thermohydraulique dans le cadre du projet OECD/NEA ATRIUM

Concernant les méthodologies BEPU (Best Estimate Plus Uncertainty) pour l'analyse de sûreté des centrales nucléaires, l'une des questions cruciales est de quantifier les incertitudes d'entrée associées aux modèles physiques dans le code. Une telle quantification consiste à évaluer la distribution de probabilité des paramètres d'entrée nécessaires à la propagation de l'incertitude par une comparaison entre les simulations et les données expérimentales. Elle est généralement appelée Quantification d'Incertitude Inverse (IUQ).
Dans ce cadre, le Service de Thermohydraulique et Dynamique des Fluides (STMF) du CEA-Saclay a proposé un nouveau projet international au sein du groupe de travail WGAMA de l'OCDE/NEA. Il s'agit d'ATRIUM (Application Tests for Realization of Inverse Uncertainty quantification and validation Methodologies in thermal-hydraulics). Ses principaux objectifs sont de réaliser un benchmark sur des exercices pertinents de quantification de l'incertitude inverse (IUQ), de prouver l'applicabilité de la ligne directrice SAPIUM et de promouvoir les meilleures pratiques pour l'IUQ en thermohydraulique.
Il est proposé de quantifier les incertitudes associées à certains phénomènes physiques pertinents lors d'un accident de perte de réfrigérant (LOCA) dans un réacteur nucléaire. Deux exercices IUQ principaux de complexité croissante sont prévus. Le premier concerne l'écoulement critique à la rupture et le second est lié aux phénomènes de transfert thermique post-CHF. Une attention particulière sera consacrée à l'évaluation de l'adéquation des bases de données expérimentales pour l'extrapolation à l'étude d'un APRP dans un réacteur à échelle réelle. Enfin, les incertitudes du modèle d'entrée obtenues seront propagées sur un test d'effet intégral (IET) approprié pour valider leur application dans des expériences à plus grande échelle et éventuellement justifier l'extrapolation à l'échelle du réacteur.

Modélisation thermo-aéraulique d’un réacteur d’incinération

Le laboratoire des Procédés Thermiques Innovants (LPTI) du CEA Marcoule développe un procédé d’incinération-vitrification In-Can (PIVIC) visant le traitement des déchets mixtes organiques/métalliques générés par les installations de production du combustible MOX. Le programme de développement de ce procédé s’appuie sur des essais réalisés sur prototype échelle 1 mais également sur l’exploitation de l’outil de simulation numérique.
Le modèle thermo-aéraulique du réacteur d’incinération PIVIC, développé sous le logiciel Ansys-Fluent est bâti sur une articulation de modèles élémentaires (plasma, pyrolyse, combustion, transport particulaire).
Le travail proposé consiste à perfectionner le modèle, notamment en ce qui concerne les composantes pyrolyse/combustion : complexification de la chimie réactionnelle, prise en compte du caractère instationnaire du processus… Le niveau de représentativité du modèle thermo-aéraulique sera évalué sur la base d’une étude comparative exploitant des données expérimentales issues d’essais sur prototype. Parallèlement à ces travaux de développement, différentes études paramétriques seront réalisées afin de tester l’impact de certaines modifications de configuration du réacteur.
En plus des aspects de maîtrise et pilotage de l’incinération, un autre enjeu majeur du projet consiste à évaluer le taux d’encrassement radiologique des parois du réacteur lors de l’incinération d’un déchet contaminés en émetteurs alpha. L’évaluation de cet encrassement radiologique du réacteur s’appuiera sur un modèle d’entraînement particulaire (DPM) associé à un modèle d’interaction pariétal. Les résultats de simulation de taux d’encrassement seront confrontés à des données expérimentales issues d’analyses de dépôts collectés sur les parois du réacteur (essais réalisés en inactif avec simulants d’actinides). Ce travail comparatif pourra donner lieu à des modifications du paramétrage du modèle physique.

Développement et optimisation de techniques de rafinement de maillage adaptatif (AMR) pour des problèmes d'intéraction fluide/structure dans un contexte de calcul haute performance

Le CEA développe actuellement un nouveau code de simulation pour la mécanique des structures et des fluides compressibles : Manta. Ce code a pour double objectif d'unifier les fonctionnalités des codes historiques implicite et explicite du CEA et d'être nativement orienté vers le calcul intensif. Grâce à de nombreuses méthodes numériques (éléments finis, volumes finis, résolutions de problèmes implicites ou explicites, ...), Manta permet de simuler différents types de problèmes mécaniques dynamiques ou statiques pour la structure et le fluide, ainsi que l'interaction fluide-structure.

Dans le cadre de la recherche d'optimisation et de gain en temps de calcul, une des techniques incontournables pour améliorer la précision des solutions tout en maîtrisant les coûts de calcul est l'adaptation dynamique du maillage (ou AMR pour « Adaptive Mesh Refinement »).

Ce postdoc s'attache à la définition et à la mise en œuvre d'algorithmes d'AMR dans un contexte de calcul haute performance pour des problèmes faisant intervenir des fluides et des structures en intéraction.

Une tâche préliminaire consistera à implémenter des fonctionnalités de raffinement de maillage hiérarchique dans Manta (sous-découpage/fusion de cellules, transferts des champs, critères de raffinement, création de liaisons pour les « hanging-nodes »). Ces travaux se feront si possible en s'appuyant sur des librairies externes.

Dans un second temps, il s'agira d'optimiser les performances des calculs parallèles à mémoire distribuée. En particulier, il sera essentiel de définir une stratégie d'équilibrage de charge entre les processus MPI, en particulier dans le cadre de problèmes d'intéraction fluide/structure.

Enfin, en particulier pour des calculs explicites, il faudra définir et mettre en œuvre des techniques d'adaptation du pas de temps en fonction du niveau de raffinement.

Ces deux derniers points donneront lieu à une ou plusieurs publications dans des revues spécialisées.

Implantation et extension de la bibliothèque de solveur Alien dans la proto-application Hélix

Le travail du post-doctorant sera dans un premier temps d’intégrer la solution Alien dans Helix, de réaliser des évaluations de performances et d’usage en configuration solveur direct ou itératif. Ces évaluations seront réalisées sur divers architectures allant de la machine de bureau jusqu'aux supercalculateurs nationaux sur plusieurs centaines voire milliers de cœurs de calcul.
Dans un second temps, le post-doctorant traitera la possibilité d’ajouter de nouvelles fonctionnalités dans la bibliothèque Alien pour résoudre des systèmes non-linéaires composés d'équations et d'inéquations afin de pouvoir résoudre dans un cadre HPC certains de problèmes de mécanique comme les méthodes de champs de phase ou bien les problèmes de contacts, sujet encore ouvert dans la communauté. Les résultats seront comparés aux cas tests et benchmark classiques de l’état de l’art du domaine.
Le candidat intégrera l'équipe de développement d'Helix, constituée pour le moment de 3/4 personnes au sein du laboratoire LM2S d'une quinzaine de personnes. Le post-doc se réalise dans le cadre d'un projet transverse entre les différentes directions du CEA. Le candidat collaborera donc également avec les auteurs de la bibliothèque Alien, à la DAM du CEA.

Détection de cyber-attaques dans un capteur embarqué pour l’analyse de sols

Ce post-doc aura pour charge d’appliquer des techniques de « machine learning » pour la détection attaques sur un système de multiples capteur connectés. Le domaine applicatif concerne l’agriculture, pour lequel le CEA LETI réalise déjà plusieurs projets, dont le projet H2020 SARMENTI (Smart multi-sensor embedded and secure system for soil nutrient and gaseous emission monitoring). L’objectif de SARMENTI est de développer et valider un système multi-capteurs à basse consommation, sécurisé et connecté au « cloud, » qui permettra une analyse in situ et en temps–réel des nutriment et de la fertilité du sol afin de fournir une aide à la décision aux agriculteurs. Dans ce cadre, le post-doc aura la charge des analyses de cyber-sécurité, de déterminer les risques principaux sur ces capteurs connectés, mais également de la spécification du module de détection d’attaques. L’algorithme de détection sous-jacent sera basé sur la détection d’anomalie, par ex. « one class classifier. » Ce travail aura trois parties, l’implémentation des sondes qui analyseront des événements sélectionnés, l’infrastructure de communication entre les sondes et le détecteur, ainsi que le détecteur proprement dit.

Science des données pour les matériaux hétérogènes

Pour mieux prédire les propriétés fonctionnelles des matériaux hétérogènes par des démarches basées sur la simulation numérique, il est impératif de fournir des données fiables concernant l’agencement spatial des phases constitutives des matériaux ainsi que leurs propriétés. Dans ce but, de nombreux outils expérimentaux sont couramment employés pour caractériser spatialement les propriétés physiques et chimiques des matériaux, générant des données multispectrales. Un axe de progrès pour une meilleure compréhension des phénomènes est donc la combinaison des différentes données d’imagerie par les techniques de la science des données. L’objectif de ce post-doc est d’enrichir les connaissances matériau, par la découverte/quantification des corrélations dans les données (par exemple établir des liens entre la composition chimique et le comportement mécanique) et de fiabiliser et réduire les incertitudes sur les propriétés, en prenant en compte des informations physiques et chimiques. Des outils logiciels seront mis au point et appliqués a des données d’intérêt acquises sur des matériaux cimentaires ou des couches de produits de corrosion d’objets archéologiques.

Top