Vers une computation distribuée sécurisée et de confiance
Ce postdoctorat explorera des paradigmes de calcul distribué sécurisé pour l'apprentissage décentralisé, en formalisant ses propriétés et en abordant la confidentialité, l'intégrité et la tolérance aux pannes. Il examinera des approches comme le calcul multipartite (MPC) pour la confidentialité et les types de données répliquées sans conflit (CRDTs) pour la cohérence. Les résultats incluront des mécanismes combinant systèmes distribués et cryptographie, équilibrant sécurité, performance et scalabilité.
Calibration automatique de boites quantiques assistée par réseaux de neurones et modèle physique
Les ordinateurs quantiques offrent de grandes promesses pour faire progresser la science, la technologie et la société en résolvant des problèmes au-delà des capacités des ordinateurs classiques. L'une des technologies de bits quantiques (qubits) les plus prometteuses est celle des qubits de spin, basés sur des boîtes quantiques (BQ) tirant parti de la grande maturité et de l'évolutivité des technologies des semi-conducteurs. Cependant, l'augmentation du nombre de qubits de spin nécessite de surmonter d'importants défis d'ingénierie, tels que la calibration de charge d'un très grand nombre de BQ. Le processus de calibration des BQ implique de multiples étapes complexes qui sont actuellement effectuées manuellement par les expérimentateurs, ce qui est long et fastidieux. Il est maintenant crucial de résoudre ce problème afin d'accélérer la R&D et de permettre la réalisation d’ordinateurs quantiques à grande échelle.
L'objectif de ce projet de post-doctorat est de développer un logiciel de calibration automatique de BQ combinant un réseau de neurones bayésien (BayNN) et un modèle physique reproduisant le comportement des dispositifs du CEA-Leti. Cette approche innovante tirant parti des estimations d'incertitude des BayNN et l’aspect prédictif du modèle permettra d’obtenir une solution de calibration automatique rapide et robuste aux non-idéalités des BQ.
Apprentissage de règles causales
Dans le cadre d’un projet qui concerne la création de matériaux innovants, nous souhaitons renforcer notre plateforme dans sa capacité à apprendre à partir de peu de données expérimentales.
En particulier, nous souhaitons travailler dans un premier temps sur l’extraction de liens causaux entre les paramètres de fabrication et la propriété. L’extraction de causalité est un sujet de très grande importance en IA aujourd’hui et nous souhaitons adapter les approches existantes aux données expérimentales et leurs particularités afin de sélectionner les variables d’intérêt. Dans un second temps, nous nous intéresserons à partir de ces liens causaux, à leur caractérisation (inférence causale) par une approche à base de règles floues, c’est-à-dire que nous créerons des règles floues adapter à leur représentation.
Développement d'approches pour l'intelligence artificielle à base de bruit
Les approches actuelles de l'IA sont largement basées sur la multiplication matricielle. Dans le de ce projet postdoccadre toral, nous aimerions poser la question suivante : quelle est la prochaine étape ? Plus précisément, nous aimerions étudier si le bruit (stochastique) pourrait être la primitive computationnelle sur laquelle la nouvelle génération d'IA est construite. Nous répondrons à cette question en deux étapes. Tout d'abord, nous explorerons les théories concernant le rôle computationnel du bruit microscopique et au niveau du système dans les neurosciences, ainsi que la façon dont le bruit est de plus en plus exploité dans l'intelligence artificielle. Nous visons à établir des liens concrets entre ces deux domaines et, en particulier, nous explorerons la relation entre le bruit et la quantification de l'incertitude.
Sur cette base, le chercheur postdoctorant développera ensuite de nouveaux modèles qui exploitent le bruit pour effectuer des tâches cognitives, dont l'incertitude est une composante intrinsèque. Cela ne servira pas seulement comme une approche d'IA, mais aussi comme un outil informatique pour étudier la cognition chez les humains et aussi comme un modèle pour des zones spécifiques du cerveau connues pour participer à divers aspects de la cognition, de la perception à l’apprentissage, la prise de décision et la quantification de l'incertitude.
Les perspectives du projet postdoctoral devraient informer sur la manière dont l'imagerie IRMf et les enregistrements électrophysiologies invasifs et non invasifs peuvent être utilisés pour tester les théories de ce modèle. En outre, le candidat devra interagir avec d'autres activités du CEA liées au développement d'accélérateurs d'IA analogiques basés sur le bruit.
Hybridation de LLMs pour l’ingénierie des exigences
Le développement de systèmes physique ou numériques est un processus complexe mêlant des défis techniques et humains. La première étape consiste à donner corps aux idées en rédigeant des spécifications ou un cahier des charges du système en devenir. Généralement écrits en langage naturel par des analystes fonctionnels (business analysts), ces documents sont des pièces maîtresses qui lient toutes les parties prenantes pendant toute la durée du projet et facilite le partage et la compréhension de ce qu’il faut faire. L’ingénierie des exigences propose diverses techniques (revues, modélisation, formalisation, etc.) pour réguler ce processus et améliorer la qualité (cohérence, complétude, etc.) des exigences produites, dans le but de détecter et corriger les défauts avant même l’implémentation du système.
Dans le domaine de l’ingénierie des exigences, l’arrivée récente des réseaux de neurones à très grands modèles (LLM) a la capacité de « changer la donne » [4]. Nous proposons de soutenir le travail de l’analyste fonctionnel avec un outil qui facilite et fiabilise la rédaction du référentiel d'exigences. L’outil exploitera un agent conversationnel de type transformeur/LLM (tels que ChatGPT ou Lama) combiné à des méthodes rigoureuses d'analyse et de conseil. Il proposera des options de réécriture des exigences dans un format compatible avec les normes INCOSE ou EARS, analysera les résultats produits par le LLM, et fournira un audit de qualité des exigences.
Développement d'Algorithmes pour la Détection et la Quantification de Biomarqueurs à partir de Voltammogrammes
L'objectif du post-doctorat est de développer une solution algorithmique et logicielle performante permettant la détection et la quantification des biomarqueurs d'intérêt à partir de voltammogrammes. Ces voltammogrammes sont des signaux unidimensionnels issus de capteurs électrochimiques innovants. L'étude sera réalisée en étroite collaboration avec un autre laboratoire du CEA-LIST, le LIST/DIN/SIMRI/LCIM, qui proposera des capteurs électrochimiques dédiés et novateurs, ainsi qu'avec la start-up USENSE, qui développe un dispositif médical permettant la mesure de plusieurs biomarqueurs dans l'urine.
Reconstruction tomographique par rayons X basée sur des méthodes analytiques et Deep-Learning
Le CEA-LIST développe la plateforme logicielle CIVA, référence de la simulation des procédés de contrôle non destructif. Elle propose notamment des outils pour l’inspection radiographique X et tomographique qui permettent, pour un contrôle tomographique donné, de simuler l’ensemble des projections radiographiques (ou sinogramme) en prenant en compte divers phénomènes physiques associés, ainsi que la reconstruction tomographique correspondante.
Le travail proposé s’intègre dans la contribution du laboratoire à un projet européen qui porte sur l’inspection tomographique de containers de transport de marchandise avec des systèmes d’inspection utilisant des sources de haute énergie. Les contraintes spatiales de l’étape d’acquisition des projections (les camions transportant les containers passent dans un portique d’inspection) impliquent une adaptation de la géométrie du système source/détecteur et par conséquent de l’algorithme de reconstruction correspondant. De plus, le système ne peut générer qu’un nombre de projections réduit, ce qui rend le problème mal posé dans le contexte de l’inversion.
Les contributions attendues portent sur deux aspects distincts de la méthodologie de reconstruction à partir des données acquises. D’une part, il s’agit d’adapter les méthodes de reconstruction analytiques à la géométrie d’acquisition spécifique de ce projet, et d’autre part de travailler sur des méthodes permettant de pallier le manque d’information lié au nombre limité de projections radiographiques. Dans cet objectif, des méthodes d’apprentissage supervisé, plus spécifiquement par Deep-Learning, seront utilisées à la fois pour compléter le sinogramme, et pour réduire les artéfacts de reconstruction causées par le faible nombre de projections disponible. Une contrainte d’adéquation aux données et au système d’acquisition sera également introduite afin de générer des projections physiquement cohérentes.
Développement d'algorithmes d'intelligence artificielle pour la localisation bande étroite
Les signaux bande étroite sont largement utilisés dans le contexte des réseaux de télécommunication faible consommation, qui sont l’un des composants clé de l’internet des objets (IoT). Cependant, ces signaux ne disposant que d’une bande de fréquence limitée, ils sont peu adaptés à de la localisation de précision, en particulier dans des environnements complexes tels que centre-ville ou des canyons urbains qui perturbent fortement le trajet de l’onde. Une approche permettant de surmonter ces difficultés consiste à s’appuyer sur un modèle 3D de la ville et de ses bâtiments afin d’améliorer la modélisation de la propagation cependant les algorithmes classiques (lancés de rayons par ex.) ont montré leurs limites pour répondre à un problème aussi complexe. Afin de dépasser les limitations actuelles, le laboratoire LCOI souhaite explorer les approches à base d’intelligence artificielle (IA) qui semblent très pertinentes pour ce type de problèmes. Le laboratoire LCOI a déployé un réseau bande étroite dans la ville de Grenoble et démarré une large collecte de mesure afin de supporter ces études.
En s’appuyant sur l’analyse de la littérature existante ainsi que sur les connaissances acquises au sein du laboratoire, le candidat devra
- Superviser et contribuer à la campagne de mesures
- Exploiter les données collectées afin de mieux comprendre les caractéristiques de propagation des signaux bande étroite dans différents environnements
- Développer une chaine de simulation de la propagation des signaux
- Affiner les calculs de borne de performance d’une localisation bande étroite
- Développer des algorithmes de localisation utilisant l’intelligence artificielle ainsi que la topologie 3D, et les comparer à ceux de l’état de l’art
- Contribuer des projets au travers de son travail de recherche
- Publier son travail dans des conférences et des journaux de qualité
développement d'un jumeau numérique de procédés complexes
L’émergence actuelle des nouvelles technologies du numérique fait entrevoir de nouvelles perspectives à l’industrie. L'application de ces technologies à l’exploitation des procédés de vitrification pourrait permettre d’améliorer la connaissance des procédés, optimiser leurs exploitations, de former les opérateurs, d'aider à la maintenance prédictive et d'assister à la conduite du procédé.
L'objectif du projet SOSIE est de faire une première preuve de concept de mise en œuvre de technologies numériques dans le domaine des procédés de vitrification, en intégrant réalité virtuelle, réalité augmentée, IoT (Internet des Objets) et Intelligence Artificielle.
Ce projet, mené en collaboration, entre le CEA et la PME GAMBI-M, est un projet région type READYNOV. GAMBI-M est une entreprise spécialisée dans la reconstruction d’environnements complexes et en ingénierie numérique. Le travail sera réalisé en collaboration étroite avec les équipes du CEA qui développent les procédés de vitrification des déchets nucléaires.
Le projet consiste à développer un jumeau numérique de 2 procédés de vitrification, l'un à froid, l'autre en haute activité. Il sera question de développer un jumeau numérique visuel, grâce auquel l’utilisateur pourra visiter les cellules et accéder en tout point en virtuel. A partir de ce modèle reconstruit, un jumeau « augmenté » sera développé et sera connecté à l’automate de supervision. Enfin, la dernière étape consistera à développer « le jumeau intelligent » en exploitant les bases de données existantes sur le fonctionnement du procédé. En entrainant des algorithmes d’IA sur ces données, un modèle prédictif de fonctionnement nominal sera généré.
Des publications sont attendues sur la mise en œuvre des outils de réalité virtuelle et réalité augmentée sur des opérations en chaines blindées, ainsi que sur le développement de méthodes d’apprentissage profond pour l’assistance à la conduite de procédés aussi complexes.
Circuits hybrides CMOS / spintronique pour le calcul d'optimisation
Le sujet proposé s’inscrit dans le contexte de la recherche d'accélérateurs hardware pour la résolution de problèmes d’optimisation NP-difficiles. De tels problèmes, dont la résolution exacte en temps polynomial est hors de portée des machines de Turing déterministes, trouvent des applications dans divers domaines tels que les opérations logistiques, le design de circuits (e.g. placement-routage), le diagnostic médical, la gestion de réseaux intelligents (e.g. smart grid), la stratégie de management etc.
L'approche considérée s'inspire du modèle d'Ising, et repose sur l'évolution de la configuration des états binaires d'un réseau de neurones artificiels. Dans le but d'améliorer la précision du résultat ainsi que la vitesse de convergence, les éléments du réseau peuvent bénéficier d'une source d'aléas intrinsèque ajustable. Des preuves de concept récentes soulignent l'intérêt de matérialiser de tels neurones via la résistance de jonctions superparamagnétiques.
Les objectifs principaux sont la simulation, le dimensionnement puis la fabrication de réseaux d'éléments hybrides associant la circuiterie CMOS à des jonctions tunnel magnétiques. Les véhicules de test seront ensuite caractérisés en vue de démontrer leur fonctionnalité.
Ces travaux s'effectueront dans le cadre d'une collaboration scientifique entre le CEA-Leti et Spintec.