Approches anisotropes en traitement du signal sur graphe. Application aux réseaux de neurones sur graphe.

Le traitement du signal sur graphe repose sur les propriétés d'un opérateur élémentaire généralement associé à une notion de marche aléatoire / processus de diffusion. Une limite de ces approches est que l'opérateur est systématiquement isotrope, propriété qui est transmise à toute notion de filtrage basée dessus. En traitement du signal multidimensionnel (images, vidéo, etc), on utilise au contraire énormément les filtres non-isotropes (voire qui ne prennent en compte qu'une seule direction) ce qui augmente très fortement les possibilités. Ces filtres non-isotropes sont en particulier l'élément de base des réseaux de neurones convolutionnels dont on se doute qu'ils seraient moins performants avec uniquement des filtres isotropes (i.e. réponse impulsionnelle à symétrie circulaire/sphérique). L'isotropie des filtres est à l'heure actuelle aussi considérée comme un frein majeur à l'expressivité des réseaux de neurones convolutionnels sur graphe, qui pourrait être levé à l'aide de constructions non-isotropes de traitement du signal sur graphe. Au-delà des graphes homogènes, les opérateurs utilisés pour le traitement du signal ou les réseaux de neurones sur des graphes bipartites ou plus généralement hétérogènes ont aussi cette propriété d'isotropie où les voisins d'un nœud sont traités de manière identique. Bien qu'il n'y ait pas cette fois de lien évident avec des approches classiques, la notion d'opérateur anisotrope ou directionnel semble là aussi pertinente pour différencier le traitement selon les multiples facettes qui peuvent contribuer à une relation donnée.

Une méthode d'étalonnage en ligne des caméras pour la cartographie et localisation collaboratives

Les travaux de recherche proposés s'intéressent à l'étalonnage automatique en ligne des systèmes de vision (pouvant s'étendre à l'ajout d'une centrale inertielle - IMU) à partir d'un réseau de neurones. Cette méthode sera appliquée dans un système cherchant à réaliser la localisation et la cartographie de l'environnement en utilisant des algorithmes de type SLAM (Simultaneous Localization And Mapping) embarqués dans plusieurs agents. Ces agents travailleront de manière collaborative afin d'aboutir à une cartographie globale. L'apprentissage fédéré sera adopté pour préserver la confidentialité des agents, qui construiront des cartographies locales qui seront fusionnées par le serveur pour l'obtention d'une carte globale de l'environnement exploré.
Différentes solutions existent actuellement pour l'étalonnage des systèmes visuels mais elles sont souvent hors ligne, nécessitant d'être réalisées préalablement à la cartographie et à chaque changement physique du système; ou elles sont en ligne mais se limitent à une caméra ou à l'estimation de paramètres extrinsèques et ne comprennent pas les paramètres inertiels. L'application de la nouvelle approche à développer sur plusieurs agents pour la cartographie leur fournirait une complète autonomie, tout en profitent de la scalabilité fournie par l'approche fédérée.
Le sujet proposé vise le développement d'une nouvelle méthode basée sur les réseaux de neurones pour la détermination des paramètres intrinsèques et extrinsèques des caméras. Cette méthode sera embarquée sur plusieurs agents permettant la cartographie et la localisation de type SLAM. La confidentialité des agents sera prise en compte par l'approche fédérée adoptée. Cette thèse permettrait ainsi d'aboutir à un système de localisation embarqué complètement indépendant et en temps réel, grâce à la nouvelle méthode d'étalonnage et à la reconstruction par un algorithme SLAM.

Développement d’un imageur gamma pour une cartographie 3D de la radioactivité pour des applications de l’industrie nucléaire

La reconstruction tridimensionnelle de points chauds radioactifs constitue un défi significatif lors des phases de caractérisation radiologique dans des environnements ayant subi une activité radiologique ou nucléaire. L'intégration de vecteurs robotiques terrestres ou aériens au cours des opérations d’assainissement et de démantèlement (A&D) d'installations nucléaires souligne l'importance cruciale de développer de telles techniques. Une approche envisagée pour parvenir à cette reconstruction consiste à fusionner les informations radiologiques issues d'un imageur gamma avec les données visuelles obtenues par des méthodes de type SLAM. La littérature a déjà démontré les avantages de cette combinaison. Cependant, les solutions proposées pour relever ce défi présentent des difficultés d'intégration avec des vecteurs robotiques.
Les résultats obtenus dans le cadre de travaux de thèse menés au SIMRI (Service Instrumentation et Métrologie des Rayonnements Ionisants) permettent d'envisager le développement d'un prototype d'imageur répondant aux besoins de la reconstruction 3D de points chauds radioactifs. Des travaux de recherche portant sur la reconstruction 3D avec l'imageur gamma à masque codé le plus compact du monde (Nanopix), menés par Kamel BENMAHI au LCIM, ont montré les capacités de Nanopix à localiser des points chauds radioactifs en 3D dans le cadre de mesures in-situ. Les travaux de thèse d'Andrea MACARIO BARROS au LEMA ont permis le développement de méthodes SLAM associées à des mesures de contamination, intégrées dans un système portable, dont les performances ont été évaluées lors de campagnes expérimentales sur site.
L'objectif de ces travaux de thèse est de développer un imageur multimodal compact associant des techniques de localisation par imagerie gamma 3D aux techniques SLAM pour des applications associées à l’industrie nucléaire.

Etude de la stabilité de structures Si-CMOS pour la réalisation de qubits de spin

Les qubits de spin dans les structures CMOS à base de silicium se démarquent par leur compatibilité avec les technologies de semi-conducteurs et leur potentiel de mise à l'échelle. Toutefois, les impuretés et les défauts introduits lors de la fabrication, entraînent du bruit et de l'instabilité, ce qui affecte leurs performances.

L'objectif est de caractériser des dispositifs fabriqués au CEA-Leti, de la température ambiante à cryogénique, pour évaluer leur qualité et comprendre les mécanismes physiques responsables de leur instabilité. Le but est d'améliorer la conception des dispositifs et idéalement de mettre en place une méthode d'identification des dispositifs les plus prometteurs sans nécessiter des mesures à très basses températures.

Le candidat devra avoir des compétences dans les domaines suivants :
- Physique expérimentale et des semi-conducteurs.
- Programmation d'algorithmes et analyse de données.
- Connaissance en nano-fabrication, physique des basses températures et physique quantique (souhaitable).

Dépôt par ALD de couches ultra-minces en sulfure de vanadium pour la réalisation de contacts performants dans les transistors à base de dichalcogénures 2D

L’objectif principal de ce sujet de recherche est de développer et évaluer le potentiel de couches minces de sulfure de vanadium déposées par ALD pour la réalisation d’électrodes dans des transistors ultimes à base de dichalcogénures 2D. Le candidat réalisera les dépôts de films de VSx dans un réacteur dédié au LMGP permettant d’effectuer des caractérisation optiques et chimiques in situ ainsi que l’analyse structurelle sous rayonnement synchrotron, afin d’identifier les mécanisme de croissances et les modifications structurelles du matériau pendant les phases de dépôt et de cristallisation. Il/Elle aura également pour objectif d’étudier les propriétés électriques des films de VSx ainsi que des hétérostructures VSx/MoS2 en vue de la réalisation de transistors 2D.

Approches few-shot et zero-shot pour l’extraction d’information à partir de textes

Dans le domaine de l’extraction d’information, dont l’objectif est d’identifier des concepts ou des faits dans des textes et de structurer les informations retenues, un enjeu important est de concevoir des modèles performants en utilisant seulement peu de données annotées (few-shot), voire sans données annotées (zero-shot). Le sujet de thèse proposé se situe dans ce cadre et portera en particulier sur l’exploitation des capacités des grands modèles de langues pré-entraînés (LLMs) pour cette tâche. Plus précisément, les pistes explorées pourront couvrir des approches de distillation de grands modèles tels que ChatGPT pour produire des données de préentraînement pour l’extraction d’information, une étude sur les synergies possible entre le préentraînement de modèles à grande échelle et des méthodes few-shot de méta-apprentissage épisodique ou la proposition de nouvelles méthodes pour la constitution de données de préentraînement, en utilisant par exemple une supervision distante par des bases de connaissances structurées.

Vers une gestion de processus métiers de confiance avec la blockchain

La blockchain et les registres distribués sont des technologies prometteuses pour la gestion des processus métiers inter-organisationnels, en particulier parmi des participants qui ne se font pas confiance. Fonctionnant de manière décentralisée et distribuée, elles éliminent le besoin d'une autorité centrale, permettant des interactions sécurisées et efficaces.

Le déploiement d'architectures basées sur la blockchain repose sur des composants spécifiques tels que les smart contracts, ainsi que des services externes comme les services de stockage de données basés sur le cloud ou l'appel à des services web grâce à des oracles. Cet écosystème requiert une expertise approfondie pour définir et mettre en œuvre les besoins en termes de confiance et de traçabilité.

L'objectif de cette thèse est de développer un outil d'aide à la conception d'applications de gestion de processus métiers de confiance. Une approche no-code/low-code permettra de spécifier et de générer l'architecture basée sur la blockchain correspondante. L'utilisation des modèles de langage de grande taille (LLMs) en soutien au model-based engineering sera envisagée. Les architectures générées viseront à exploiter la blockchain de manière frugale, minimisant ainsi la consommation énergétique globale. De plus, la fiabilité des smart contracts sera assurée grâce à des approches de vérification formelle.

Génération de mouvement humain et création de bases de données à partir de techniques d’IA pour la reconnaissance d’actions dans un contexte industriel

Dans le contexte de l’industrie 4.0, l’analyse, la reconnaissance et la prédiction des actions humaines prennent une place de plus en plus importante pour la prise de décision et une interaction homme-machine fluide et intuitive. Cependant, la reconnaissance d’actions humaines nécessite de grandes quantités de données pour entraîner des architectures d’apprentissage profond. Le but de la thèse est de générer, pour des cas industriels, de grandes bases de données de mouvements grâce à l'animation de mannequins numériques, et à partir d'un nombre réduit d’exemples issus de captures de mouvements en réalité mixte. Ces bases de données serviront à entraîner des architectures de reconnaissance d’actions, pour des applications industrielles d’interaction homme-machine, de génération de gammes de montage, et d’évaluation ergonomique.

Génération et contrôle de mannequin virtuel par apprentissage pour la simulation de processus industriels en réalité virtuelle

La thèse porte sur la simulation d’humains numériques dans un contexte de processus industriels en réalité virtuelle. Cet opérateur numérique est appelé à réaliser diverses tâches (manipulation, vissage…) dans des environnements virtuels plus ou moins contraints. On veut que les mouvements de cet opérateur soient les plus fidèles possibles par rapport à la réalité, en termes de posture, d’efforts et d’interactions avec l’environnement.
Compte tenu de la sophistication des gestes à reproduire et du nombre de paramètres à définir manuellement, les méthodes de contrôle classique deviennent trop complexes à mettre en œuvre. Dans la littérature, les travaux mettant en œuvre des méthodes d’apprentissage par imitation montrent des résultats prometteurs. Ces méthodes souffrent toutefois de limitations importantes, comme l’utilisation d’une grande base de données d’exemples ou des temps d’entraînement importants.
L’objectif de cette thèse est d’apporter des modifications substantielles aux méthodes existantes, et le cas échéant d’en proposer une nouvelle, qui apprenne et coordonne, à partir d’une base de données de taille modeste, les mouvements et interactions d’un mannequin virtuel nécessaires à la réalisation de tâches dans un milieu industriel. Une grande attention sera portée aux efforts générés pour obtenir le mouvement et leur adéquation avec le réalisme physique. La méthode sera appliquée à des cas industriels et des simulations en réalité virtuelle.

Caractérisation et modélisation assistée par machine learning de microbatteries sur Silicium

Les mécanismes physiques impliqués dans le fonctionnement d'une microbatterie sont encore peu compris et peu modélisés. Pour les etudier, le CEA dispose d’une plateforme de fabrication et de caractérisation dédiée aux composants lithiés.
L’objectif de cette thèse est de développer un modèle physique pour décrire les performances des batteries (tension, puissance délivrée) selon les conditions d'utilisation. La méthodologie proposée consiste à :
1. Utiliser les 15 000 batteries par wafer comme véhicules de test. Les mesures réalisées pendant le cyclage des batteries sont compilées dans une base de données.
2. Participer au développement des programmes de traitement de données basés sur des méthodes de machine learning et d'inférence bayésienne pour mettre en évidence des paramètres optimaux de protocole de cyclage. Ces retours alimentent alors le modèle physique et electrochimique (validation/compréhension/exploration).
3. Itération avec la fabrication et les tests électriques de nouvelles architectures/designs de batteries.

Top